Perguntas com a marcação «loss-functions»

Função usada para quantificar a diferença entre os dados observados e os valores previstos de acordo com um modelo. A minimização de funções de perda é uma maneira de estimar os parâmetros do modelo.





1
Explicação intuitiva do logloss
Em várias competições de kaggle, a pontuação foi baseada em "logloss". Isso está relacionado ao erro de classificação. Aqui está uma resposta técnica, mas estou procurando uma resposta intuitiva. Gostei muito das respostas para esta pergunta sobre a distância de Mahalanobis, mas o PCA não é logloss. Posso usar o …

2
Comparação entre estimadores de Bayes
Considere a perda quadrática , com o dado previamente que . Seja a probabilidade. Encontre o estimador de Bayes .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Considere a perda quadrática ponderada que com anterior . Seja seja a probabilidade. Encontre o estimador de Bayes .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Compare eδπδπ\delta^\piδπ1δ1π\delta^\pi_1 Primeiro, notei que , …


1
Comparando resíduos entre regressões OLS e não OLS
Suponha que você queira estimar um modelo linear: ( nnn observações da resposta p + 1p+1p+1 preditores) E ( yEu) = β0 0+ ∑j = 1pβjxeu jE(yEu)=β0 0+∑j=1pβjxEuj\mathbb{E}(y_i) = \beta_0 + \sum_{j=1}^p \beta_j x_{ij} Uma maneira de fazer isso é através da solução OLS, ou seja, escolha os coeficientes para …

2
Perda de dobradiça com classificador one-vs-all
Atualmente, estou olhando para a forma primária irrestrita do classificador one-vs-all ∑i=1NI∑k=1,k≠yiNKL(1+wk⋅xi−wyi⋅xi)∑i=1NI∑k=1,k≠yiNKL(1+wk⋅xi−wyi⋅xi)\sum\limits_{i=1}^{N_I} \sum\limits_{k=1,\atop k \neq y_i}^{N_K} L(1+ \mathbf{w_k}\cdot\mathbf{x_i}-\mathbf{w_{y_i}}\cdot\mathbf{x_i}) Onde NININ_I é o número de instâncias, NKNKN_K é o número de classes, NFNFN_F é o número de recursos, XXX é umamatriz de dadosNK×NFNK×NFN_K \times N_F , yyy é um vetor de …




1
Usando a regra de pontuação adequada para determinar a associação de classe a partir da regressão logística
Estou usando regressão logística para prever a probabilidade de ocorrência de um evento. Por fim, essas probabilidades são colocadas em um ambiente de produção, onde nos concentramos o máximo possível em atingir nossas previsões de "sim". Portanto, é útil ter uma idéia do que "hits" ou "não hits" definitivos podem …

2
Por que um modelo estatístico superajustaria se recebesse um grande conjunto de dados?
Meu projeto atual pode exigir que eu construa um modelo para prever o comportamento de um determinado grupo de pessoas. o conjunto de dados de treinamento contém apenas 6 variáveis ​​(id é apenas para fins de identificação): id, age, income, gender, job category, monthly spend em que monthly spendé a …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

2
Uma previsão de densidade agrega valor além de uma previsão pontual quando a função de perda é fornecida?
As previsões de densidade são mais universais do que as pontuais; eles fornecem informações sobre toda a distribuição prevista de uma variável aleatória, e não sobre uma função concreta da mesma (como média prevista, mediana, quantil etc.). A disponibilidade de uma previsão de densidade permite que diferentes usuários selecionem elementos …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.