Perguntas com a marcação «scikit-learn»

Uma biblioteca de aprendizado de máquina para Python. Use essa tag para qualquer pergunta no tópico que (a) envolva o scikit-learn como parte crítica da pergunta ou resposta esperada, & (b) não seja apenas sobre como usar o scikit-learn.

2
Uso de validação cruzada aninhada
A página do Scikit Learn na seleção de modelos menciona o uso de validação cruzada aninhada: >>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits) Dois loops de validação cruzada são executados em paralelo: um pelo estimador GridSearchCV para definir gama e outro pelo cross_val_score para medir o …

2
Diferença entre selecionar recursos com base em "regressão F" e com base em
Está comparando recursos usando F-regressiono mesmo que correlacionando recursos com o rótulo individualmente e observando o R2R2R^2 valor? Muitas vezes vi meus colegas usarem um F regression seleção de recursos em seu pipeline de aprendizado de máquina em sklearn: sklearn.feature_selection.SelectKBest(score_func=sklearn.feature_selection.f_regression...)` Alguns me dizem - por que eles dão os mesmos …


2
Usando o BIC para estimar o número de k em KMEANS
No momento, estou tentando calcular o BIC para o meu conjunto de dados de brinquedos (ofc iris (:). Quero reproduzir os resultados conforme mostrado aqui (Fig. 5). Esse documento também é minha fonte para as fórmulas do BIC. Eu tenho 2 problemas com isso: Notação: ninin_i = número de elementos …


5
Como executar a imputação de valores em um número muito grande de pontos de dados?
Eu tenho um conjunto de dados muito grande e faltam cerca de 5% de valores aleatórios. Essas variáveis ​​estão correlacionadas entre si. O exemplo a seguir do conjunto de dados R é apenas um exemplo de brinquedo com dados correlatos simulados. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 


1
Interpretação de saída Scikit predict_proba
Estou trabalhando com a biblioteca scikit-learn em python. No código abaixo, estou prevendo probabilidade, mas não sei ler a saída. Testando dados from sklearn.ensemble import RandomForestClassifier as RF from sklearn import cross_validation X = np.array([[5,5,5,5],[10,10,10,10],[1,1,1,1],[6,6,6,6],[13,13,13,13],[2,2,2,2]]) y = np.array([0,1,1,0,1,2]) Dividir o conjunto de dados X_train, X_test, y_train, y_test = cross_validation.train_test_split(X, y, …

2
É possível avaliar o GLM no Python / scikit-learn usando as distribuições Poisson, Gamma ou Tweedie como a família para a distribuição de erros?
Tentando aprender um pouco de Python e Sklearn, mas para o meu trabalho eu preciso executar regressões que usem distribuições de erro das famílias Poisson, Gamma e, especialmente, Tweedie. Não vejo nada na documentação sobre eles, mas eles estão em várias partes da distribuição R, então eu queria saber se …



1
Por que uma grande variedade de K está diminuindo minha pontuação de validação cruzada?
Brincando com o Boston Housing Dataset e RandomForestRegressor(com parâmetros padrão) no scikit-learn, notei algo estranho: a pontuação média de validação cruzada diminuiu à medida que aumentava o número de dobras além de 10. Minha estratégia de validação cruzada era a seguinte: cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, …




Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.