Estatísticas e Big Data

Perguntas e respostas para pessoas interessadas em estatística, aprendizado de máquina, análise de dados, mineração de dados e visualização de dados

2
Interpretação natural para hiperparâmetros LDA
Alguém pode explicar qual é a interpretação natural para os hiperparâmetros LDA? ALPHAe BETAsão parâmetros de distribuições Dirichlet para distribuições de tópicos (por documento) e (por tópico) palavras, respectivamente. No entanto, alguém pode explicar o que significa escolher valores maiores desses hiperparâmetros versus valores menores? Isso significa colocar alguma crença …


1
Função do parâmetro n.minobsinnode do GBM em R [fechado]
É improvável que esta pergunta ajude futuros visitantes; é relevante apenas para uma pequena área geográfica, um momento específico ou uma situação extraordinariamente estreita que geralmente não é aplicável ao público mundial da Internet. Para obter ajuda para tornar esta questão mais amplamente aplicável, visite o centro de ajuda . …
21 r  gbm 

3
Como interpretar os efeitos principais quando o efeito da interação não é significativo?
Eu executei um Modelo Misto Linear Generalizado em R e incluí um efeito de interação entre dois preditores. A interação não foi significativa, mas os principais efeitos (os dois preditores) foram. Agora, muitos exemplos de livros didáticos me dizem que, se houver um efeito significativo da interação, os principais efeitos …




2
Por que um anterior à variância é considerado fraco?
fundo Um dos pontos fracos mais comumente usados ​​antes da variância é a gama inversa com os parâmetros (Gelman 2006) .α = 0,001 , β= 0,001α=0.001,β=0.001\alpha =0.001, \beta=0.001 No entanto, essa distribuição possui um IC de 90% de aproximadamente .[ 3 × 1019, ∞ ][3×1019,∞][3\times10^{19},\infty] library(pscl) sapply(c(0.05, 0.95), function(x) qigamma(x, …


2
O PCA em numpy e sklearn produz resultados diferentes
Estou entendendo algo errado. Este é o meu código usando o sklearn import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) Resultado: …






Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.