O que nós sabemos
De acordo com uma página do Banco Mundial , "Hoje, existem cerca de 200 milhões de estudantes do ensino superior no mundo, contra 89 milhões em 1998". Pelo menos 1 em 100, como requisito de matemática, teve que desenvolver uma prova para um teorema e viver pelo menos 40 anos depois.
Embora existam pelo menos 20 milhões de redes neurais que possam provar um teorema, elas ficam aquém dos exemplos que responderiam afirmativamente a essa pergunta. Essas redes neurais são biológicas, não artificiais, e na maioria das vezes têm teoremas comprovados anteriormente, não a conjectura de Collatz ou a conjectura de Riemann.
O que alguns acreditam
Aqueles que acreditam que o aprendizado profundo de Q e os dispositivos baseados em atenção serão acompanhados por outros projetos de sistemas de aprendizagem até que as faculdades do cérebro humano sejam simuladas e talvez superadas, provavelmente incluiriam a prova do teorema como uma dessas capacidades humanas. Provavelmente, eles declarariam lógica e inferência de predicados como apenas outra função cognitiva complexa que será alcançada em sistemas artificiais.
Aqueles que acreditam que algumas capacidades estão imbuídas em seres humanos e são capacidades reservadas, podem declarar lógica e inferência predicadas como reservadas apenas aos seres humanos.
Estado atual do progresso
Não há artigos acadêmicos indicando a capacidade de provar até as provas mais simples usando lógica e inferência predicadas. É possível que um governo ou empresa privada tenha alcançado algum nível de sucesso ao fazê-lo, mas isso não foi divulgado.
A ideia de que redes artificiais, se desenvolvidas de maneira apreciável, poderiam superar sistemas de produção, sistemas de IA baseados em produções ou regras, em suas áreas de maior eficácia, foi proposta no início do desenvolvimento da IA. Foi disputado naquela época e disputado agora, no entanto, os argumentos não são matemáticos, portanto não há forte indicação de que seja impossível.
Certamente outros aspectos cognitivos do pensamento humano são objetivos importantes da pesquisa em IA. Diálogo, educação automatizada, planejamento, análise estratégica e pilotagem de veículos são todos aspectos do pensamento superior que exigem mais do que DQN e abordagens de rede baseadas em atenção agora podem oferecer, mas o esforço de pesquisa nessas áreas é apreciável e bem financiado.
Abordagem Potencial
A pesquisa em relação às habilidades cognitivas lógicas deve iniciar provas já conhecidas, muito mais simples do que as conjecturas mencionadas na pergunta. Por exemplo, foi provado que a soma de dois números inteiros não negativos deve ser outro número inteiro não negativo. No cálculo de predicado, isso pode ser representado como uma sequência de caracteres.
∀ a ∈ C, b ∈ C: s = a + b⟹s ∈ C
Ele diz que aeb são membros do conjunto de números de contagem, que os s, definidos como a soma dos dois, também devem ser membros do conjunto de números de contagem. Sua prova também pode ser representada como uma sequência de cadeias de caracteres do cálculo de predicados de primeira ordem.
Nenhum projeto de pesquisa pequeno
Esse exemplo pode parecer simples para alguém que fez anos de cursos de matemática e construiu provas. Não é simples para uma criança, e é muito difícil fazer com que uma rede artificial converja para uma função que aplique todas as regras de inferência lógica e incorpore meta-regras para chegar a uma prova de um sistema formal como a aritmética inteira.
Turing redes completas, como RNNs, certamente terá vantagens sobre MLPs (perceptrons multicamadas). As redes baseadas em atenção podem ser uma opção de pesquisa razoável. Existem outros indicados nas referências abaixo.
Uma plataforma de computação paralela seria necessária para a pesquisa, já que o vetor de entrada pode ser centenas de Kbytes. É difícil estimar o tamanho dos exemplos e quantos seriam necessários sem levar um ano ou dois para o processo de pesquisa.
A definição dos números de contagem, o sinal de mais e o sinal de igual devem primeiro ser definidos, e essas definições e vários axiomas, postulados, lemas e corolários devem fazer parte do exemplo de entrada na forma formal, como a proposta a ser comprovado acima, juntamente com essa proposta.
E esse é o trabalho de preparar apenas um exemplo. Você precisaria de milhares para treinar conhecimento intuitivo sobre as regras de inferência em uma rede profunda. (Escolhi a palavra INTUITIVA deliberadamente por razões teóricas que levariam pelo menos cem páginas para explicar bem.)
Este não é um projeto pequeno, pois o conjunto de dados de exemplo deve ter pelo menos alguns milhares de casos, e cada caso, embora possa compartilhar alguma teoria, deve ser configurado para que a proposta seja perfeitamente formada e o corpo de teoria necessário também seja apresentado. de forma perfeita na entrada para cada iteração de treinamento.
Meu palpite é que seria necessário uma equipe de pesquisadores brilhantes com o entendimento apropriado de redes profundas, convergência e cálculo de predicados por cerca de dez anos para treinar uma rede para fornecer provas viáveis em resposta a simples propostas matemáticas.
Mas não seria uma pequena conquista
Isso pode parecer um esforço absurdo para alguns, mas seria a primeira vez que alguém ensinaria um computador a ser lógico. A natureza precisou apenas da idade da terra para ensinar inferência lógica a um organismo, Sócrates.
As pessoas assumem que, como um computador é composto de circuitos digitais que executam a lógica por design, os computadores são lógicos. Qualquer pessoa que esteja envolvida no desenvolvimento de software há décadas com a tendência de pensar mais profundamente do que hackers por diversão ou dinheiro sabe de maneira diferente. Mesmo após uma programação cuidadosa, os computadores não simulam inferência lógica e não podem corrigir seu próprio comportamento programado para qualquer bug arbitrário. De fato, a maior parte do desenvolvimento de software atualmente é de correção de bugs.
Simular o pensamento lógico seria um passo importante para simular a cognição e o conjunto mais amplo de capacidades humanas.
Referências
Aprendendo a redigir redes neurais para responder perguntas Jacob Andreas, Marcus Rohrbach, Trevor Darrell e Dan Klein UC, Berkeley 2016
https://arxiv.org/pdf/1601.01705.pdf
Aprendendo várias camadas de representação Geoffrey E. Hinton Departamento de Ciência da Computação, Universidade de Toronto 2007
http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf
Máquina de Turing Neural (apresentação de slides) Autor: Alex Graves, Greg Wayne, Ivo Danihelka Apresentado por: Tinghui Wang (Steve)
https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf
Máquinas de Turing Neural (papel) Alex Graves, Greg Wayne, Ivo Danihelka
https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf
2014
Aprendizado por Reforço, Neural Turing Machines Wojciech Zaremba, papel da conferência Ilya Sutskever ICLR
https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
2016
Máquina de Turing Neural Dinâmica com Esquemas de Endereçamento Contínuo e Discreto Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yoshua Bengio1
https://arxiv.org/pdf/1607.00036.pdf
2017
Uma rede de inferência nebulosa autoconstrutiva on-line e suas aplicações Transações IEEE de Chia-Feng Juang e Chin-Teng Lin IEEE em sistemas nebulosos, v6, n1 1998
https://ir.nctu.edu.tw/bitstream/11536/ 32809/1 / 000072774800002.pdf
Redes Neurais de Sequência de Gated Gated Yujia Li e Richard Zemel ICLR conference paper 2016
https://arxiv.org/pdf/1511.05493.pdf
Construindo Máquinas que Aprendem e Pensam como Pessoas Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum e Samuel J. Gershman Ciências do Comportamento e do Cérebro 2016
https://arxiv.org/pdf/1604.00289.pdf
Redes neurais profundas pré-treinadas e dependentes de contexto para reconhecimento de fala de grande vocabulário George E. Dahl, Dong Yu, Li Deng e Alex Acero Transações do IEEE sobre processamento de áudio, linguagem e linguagem 2012
https://s3.amazonaws.com/ academia.edu.documents / 34691735 / dbn4lvcsr-transaslp.pdf? AWSAccessKeyId = AKIAIWOWYYGZ2Y53UL3A & Expira = 1534211789 & Signature = 33QcFP0JGFeA% 2FTsqjQZpXYrIGm%% 3D & response-content 3D
Incorporando entidades e relações para aprendizagem e inferência em bases de conhecimento Bishan Yang1, Wen-tau Yih2, Xiaodong He2, Jianfeng Gao2 e Li Deng2, documento da conferência ICLR 2015
https://arxiv.org/pdf/1412.6575.pdf
Um algoritmo de aprendizagem rápida para redes de crença profunda Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh (comunicado por Yann Le Cun) Computação Neural 18 2006
http://axon.cs.byu.edu/Dan/778/papers/Deep % 20Networks / hinton1 * .pdf
FINN: Uma estrutura para inferência rápida e escalonável de redes neurais binárias Yaman Umuroglu, et al 2016 2016
https://arxiv.org/pdf/1612.07119.pdf
Do aprendizado de máquina ao raciocínio de máquina Léon Bottou 8/8/2011
https://arxiv.org/pdf/1102.1808.pdf
Aprendizado profundo Yann LeCun1,2, Yoshua Bengio3 e Geoffrey Hinton4,5 Nature vol 521 2015
https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf