Perguntas com a marcação «lg.learning»

Aprendizado de máquina e teoria do aprendizado: aprendizado do PAC, teoria do aprendizado algorítmico e aspectos computacionais da inferência bayesiana e modelos gráficos.


1
Funções que não são eficientemente computáveis, mas que podem ser aprendidas
Sabemos que (ver, por exemplo, Teoremas 1 e 3 de [1]), grosso modo, sob condições adequadas, funções que podem ser computadas eficientemente pela máquina de Turing em tempo polinomial ("computável eficientemente") podem ser expressas por redes neurais polinomiais com tamanhos razoáveis ​​e, portanto, pode ser aprendido com a complexidade da …

2
Qual é a complexidade de distinguir um verdadeiro espectro de Fourier de um falso?
Uma máquina PHPHPH recebe acesso Oracle a uma função booleana aleatória f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f:\{0,1\}^n \to \{ -1,1 \} e dois espectros de Fourier ggg e hhh . O espectro de Fourier de uma função fff é definido como F:{0,1}n→RF:{0,1}n→RF:\{0,1\}^n \to R : F(s)=∑x∈{0,1}n(−1)(s⋅xmod 2)f(x)F(s)=∑x∈{0,1}n(−1)(s⋅xmod 2)f(x)F(s)=\sum_{x\in\{0,1\}^n} (-1)^\left( s\cdot x \mod\ 2 \right) f(x) …



1
O Problema de Warren Buffett
Aqui está uma abstração de um problema de aprendizado / bandido on-line em que estive trabalhando no verão. Eu nunca vi um problema como esse antes e parece bastante interessante. Se você conhece algum trabalho relacionado, eu gostaria de receber referências. O problema A configuração é a de bandidos com …

2
Arrependimento interno na otimização convexa on-line
A "otimização convexa on-line" de Zinkevich ( http://www.cs.cmu.edu/~maz/publications/ICML03.pdf ) generaliza os algoritmos de aprendizado de "minimização de arrependimento", de configurações lineares a convexas e fornece bom "arrependimento externo" . Existe uma generalização semelhante para arrependimento interno? (Não tenho muita certeza nem do que exatamente isso significaria.)



4
Pior número de perguntas necessárias para aprender um predicado monotônico sobre um poset
Considere (X,≤)(X,≤)(X, \leq) um poset finita sobre itens, e um predicado monótona desconhecido através (isto é, para qualquer , , se e , em seguida, ). Eu posso avaliar fornecendo um nó e descobrindo sennnPPPXXXxxxy∈Xy∈Xy \in XP(x)P(x)P(x)x≤yx≤yx \leq yP(y)P(y)P(y)PPPx∈Xx∈Xx \in XP(x)P(x)P(x) é válido ou não. Meu objetivo é determinar exatamente …




3
Algoritmos de modelo de consulta estatística?
Fiz essa pergunta em perguntas e respostas cruzadas validadas, mas parece que ela está relacionada ao CS muito mais que o Statistics. Você pode me dar exemplos de algoritmos de aprendizado de máquina que aprendem com as propriedades estatísticas do conjunto de dados e não com as próprias observações individuais, …

1
Solicitação de referência: Minimização submodular e funções booleanas monótonas
Antecedentes: No aprendizado de máquina, geralmente trabalhamos com modelos gráficos para representar funções de densidade de probabilidade dimensional alta. Se descartamos a restrição de que uma densidade se integra (soma) a 1, obtemos uma função de energia estruturada em gráfico não normalizada . Suponha que tenhamos uma função energética, , …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.