Digamos que temos uma representação vetorial de qualquer número inteiro de magnitude n, V_n
Esse vetor é a entrada para um algoritmo de aprendizado de máquina.
Primeira pergunta: para que tipo de representações é possível aprender a primalidade / composição de n usando uma rede neural ou algum outro mapeamento ML de vetor para bit. Isso é puramente teórico - a rede neural pode ter tamanho ilimitado.
Vamos ignorar representações que já estão relacionadas ao teste de primalidade, como: a lista separada nula de fatores de n ou a existência de uma testemunha de composição como em Miller Rabin. Em vez disso, vamos nos concentrar nas representações em diferentes radias ou representações como vetores coeficientes de polinômios (possivelmente multivariados). Ou outros exóticos como são postados.
Segunda pergunta: para quais tipos de algoritmo ML, se houver algum, o aprendizado será impossível, independentemente das especificidades do vetor de representação? Novamente, vamos deixar de fora as representações "proibidas pela trivialidade", cujos exemplos são dados acima.
A saída do algoritmo de aprendizado de máquina é um bit único, 0 para prime, 1 para composto.
O título desta pergunta reflete minha avaliação de que o consenso para a pergunta 1 é 'desconhecido' e o consenso para a pergunta 2 é 'provavelmente a maioria dos algoritmos de ML'. Estou perguntando isso, porque não sei mais do que isso e espero que alguém possa apontar o caminho.
A principal motivação, se houver uma, dessa pergunta é: existe um limite "teórico da informação" para a estrutura do conjunto de primos que pode ser capturado em uma rede neural de um tamanho específico? Como não sou especialista nesse tipo de terminologia, reformule essa idéia algumas vezes e veja se entendo uma aproximação de Monte-Carlo ao conceito: qual é a complexidade algorítmica do conjunto de números primos? O fato de que os primos são diofantinos recursivamente enumeráveis (e podem satisfazer uma determinada equação diofantina grande ) pode ser usado para capturar a mesma estrutura em uma rede neural com as entradas e saídas descritas acima.