Perguntas com a marcação «xgboost»

Um algoritmo de aumento popular e biblioteca de software (significa "reforço de gradiente extremo"). Boosting combina modelos fracamente preditivos em um modelo fortemente preditivo.


1
Diferenças matemáticas entre GBM, XGBoost, LightGBM, CatBoost?
Existem várias implementações da família de modelos GBDT, como: GBM XGBoost LightGBM Catboost. Quais são as diferenças matemáticas entre essas diferentes implementações? O Catboost parece ter um desempenho superior às outras implementações, mesmo usando apenas seus parâmetros padrão de acordo com essa marca de referência , mas ainda é muito …
33 boosting  xgboost 

1
Função de perda XGBoost Aproximação com expansão de Taylor
Como exemplo, assumir a função objetivo do modelo XGBoost no 'th iteração:ttt L(t)=∑i=1nℓ(yi,y^(t−1)i+ft(xi))+Ω(ft)L(t)=∑i=1nℓ(yi,y^i(t−1)+ft(xi))+Ω(ft)\mathcal{L}^{(t)}=\sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)}+f_t(\mathbf{x}_i))+\Omega(f_t) onde é a função de perda, é o 'th saída de árvore e é a regularização. Uma das (muitas) etapas principais para o cálculo rápido é a aproximação:ℓℓ\ellftftf_ttttΩΩ\Omega L(t)≈∑i=1nℓ(yi,y^(t−1)i)+gtft(xi)+12hif2t(xi)+Ω(ft),L(t)≈∑i=1nℓ(yi,y^i(t−1))+gtft(xi)+12hift2(xi)+Ω(ft),\mathcal{L}^{(t)}\approx \sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)})+g_tf_t(\mathbf{x}_i)+\frac{1}{2}h_if_t^2(\mathbf{x}_i)+\Omega(f_t), onde e são a primeira e a …


1
Explicação do min_child_weight no algoritmo xgboost
A definição do parâmetro min_child_weight no xgboost é fornecida como: soma mínima do peso da instância (hessian) necessária em uma criança. Se a etapa de partição em árvore resultar em um nó folha com a soma do peso da instância menor que min_child_weight, o processo de criação desistirá de particionar …

3
O XGBoost x o Python Sklearn aumentaram as árvores
Estou tentando entender como o XGBoost funciona. Eu já entendo como as árvores com gradiente aumentado funcionam no sklearn do Python. O que não está claro para mim é se o XGBoost funciona da mesma maneira, mas mais rápido, ou se existem diferenças fundamentais entre ele e a implementação do …



4
Deveria se preocupar com a multicolinearidade ao usar modelos não lineares?
Digamos que temos um problema de classificação binária com recursos principalmente categóricos. Usamos algum modelo não linear (por exemplo, XGBoost ou Random Forests) para aprendê-lo. Ainda se deve preocupar com a multicolinearidade? Por quê? Se a resposta acima for verdadeira, como combatê-la, considerando que estamos usando esses tipos de modelos …


1
Como o aumento de gradiente calcula estimativas de probabilidade?
Eu tenho tentado entender o aumento de gradiente lendo vários blogs, sites e tentando encontrar minha resposta procurando, por exemplo, no código-fonte do XGBoost. No entanto, não consigo encontrar uma explicação compreensível de como algoritmos de aumento de gradiente produzem estimativas de probabilidade. Então, como eles calculam as probabilidades?


1
max_delta_step no xgboost
Não consigo entender completamente como esse parâmetro funciona a partir da descrição na documentação [max_delta_step [padrão = 0]] Etapa delta máxima que permitimos que a estimativa de peso de cada árvore seja. Se o valor estiver definido como 0, significa que não há restrição. Se estiver definido como um valor …
9 xgboost 

1
Intervalo de confiança para previsão xgb
especialistas! Talvez você saiba como calcular o intervalo de confiança para xgboost? A fórmula clássica com distribuição t não pode ajudar, porque meus dados não são normalmente distribuídos. Ou não importa? Se você sugerir alguma literatura, será muito útil, mas as abordagens em R e Python (no contexto da biblioteca …

2
Poisson xgboost com exposição
Eu estava tentando modelar uma variável dependente de contagem com exposição desigual. Glms clássicos usariam log (exposição) como deslocamento, também o gbm, mas o xgboost não permite o deslocamento até agora ... Tentando encontrar uma desvantagem neste exemplo em validação cruzada ( onde o deslocamento ocorre na regressão binomial negativa …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.