No teorema bayesiano, , e do livro que estou lendo, é chamado de probabilidade , mas presumo que seja apenas a probabilidade condicional de dado , certo? p(x|y)
A estimativa de probabilidade máxima tenta maximizar , certo? Nesse caso, estou muito confuso, porque são duas variáveis aleatórias, certo? Maximizar é apenas descobrir o ? Mais um problema, se essas duas variáveis aleatórias são independentes, então é apenas , certo? Maximizar é maximizar .x , y p ( x | y ) p(x|y)p(x)p(x|y)p(x)
Ou talvez, seja uma função de alguns parâmetros , que é , e o MLE tenta encontrar o que pode maximizar ? Ou mesmo que seja, na verdade, os parâmetros do modelo, e não uma variável aleatória, maximizando a probabilidade de encontrar ?θ p ( x | y ; θ ) θ p ( x | y ) y y
ATUALIZAR
Sou iniciante em aprendizado de máquina, e esse problema é uma confusão das coisas que li em um tutorial de aprendizado de máquina. Aqui está, dado um conjunto de dados observado , os valores de destino são e tento ajustar um modelo nesse conjunto de dados , então suponho que, dado , tenha uma forma de distribuição denominada parametrizada por , que é , e assumo que essa seja a probabilidade posterior , certo?{ Y 1 , Y 2 , . . . , y n } x y W θ
Agora, para estimar o valor de , eu uso o MLE. OK, aí vem o meu problema, acho que a probabilidade é , certo? Maximizar a probabilidade significa que eu deveria escolher o e certo ?p ( x | y ; θ ) θ y
Se minha compreensão da probabilidade estiver errada, mostre-me o caminho certo.