Existe algum argumento científico / matemático que impeça que o aprendizado profundo produza uma IA forte?


12

Li The Book of Why , da Judea Pearl , no qual ele menciona que o aprendizado profundo é apenas uma tecnologia de ajuste de curva glorificada e não será capaz de produzir inteligência semelhante à humana.

De seu livro, há um diagrama que ilustra os três níveis de habilidades cognitivas:

Três níveis de habilidades cognitivas

A idéia é que a "inteligência" produzida pela atual tecnologia de aprendizado profundo está apenas no nível da associação. Portanto, a IA não chega nem perto de fazer perguntas como "como posso fazer Y acontecer" (intervenção) e "e se eu tiver agido de maneira diferente, X ainda ocorrerá?" (contrafactuais), e é altamente improvável que as técnicas de ajuste de curva possam nos aproximar de um nível mais alto de capacidade cognitiva.

Achei o argumento dele convincente em um nível intuitivo, mas não consigo encontrar nenhuma lei física ou matemática que possa reforçar ou lançar dúvidas sobre esse argumento.

Então, existe algum argumento científico / físico / químico / biológico / matemático que impeça que o aprendizado profundo produza forte inteligência artificial (inteligência humana)?


Poucas horas atrás, tínhamos algum tipo de Quetion que fala sobre neurociência e inteligência artificial, então acho que essa pergunta é adequada para aplicativos de dados, que está além do aprendizado de máquina.
quintumnia

1
Um dos problemas enfrentados para responder a isso é que "Deep Learning" é um tipo de nome de marca, onde as coisas feitas com redes neurais que vão além do ajuste estatístico de curvas - por exemplo, RNNs para sequências de aprendizado e "deep reforçar learning" - podem também ser considerado parte pelos adeptos. Se você permitir que o termo evolua assim, é muito difícil definir qualquer argumento sobre suas capacidades.
Neil Slater

incompletude teorema de Gödel
riemann77

2
@thecomplexitytheorist: a incompletude de Godel, o problema de entes e outros semelhantes, tudo isso também se aplica à mente humana. Como conclusão, se eles foram um motivo para não alcançar a IA, nenhum dos seres humanos é inteligente. Modus tollens, Godels não é um problema no caminho para a AGI
pasaba por aqui

Quem pode dizer que 'Fazer' e 'Imaginar' também não são simplesmente 'Ajuste de Curva' acontecendo no cérebro?
Dunk

Respostas:


3

O comentário de Judea Pearl em 2018 no site ACM.org, em Para Construir Máquinas Verdadeiramente Inteligentes, Ensiná-los Causa e Efeito, é penetrante.

Todas as realizações impressionantes do aprendizado profundo equivalem apenas ao ajuste da curva.

Rn

  1. Redes artificiais não podem executar lógica.
  2. Redes artificiais são a melhor abordagem para a IA.

Como a racionalidade pode ser excluída da lista de importantes características humanas da inteligência, que é o que essas duas afirmações juntas significariam?

O cérebro humano é uma rede de sofisticados ajustadores de curvas? A famosa citação de Marvin Minsky, "O cérebro é uma máquina de carne", foi oferecida sem uma prova, e nem uma prova de sua trivialização do cérebro humano nem uma prova de que o cérebro está além do alcance da computabilidade de Turing foram oferecidas desde .

Quando você lê essas palavras, suas redes neurais estão fazendo a seguinte seqüência de ajustes de curvas?

  • Bordas das hastes e cones da retina
  • Linhas de arestas
  • Formas de linhas
  • Cartas de formas
  • Elementos linguísticos de grupos de letras
  • Estruturas linguísticas de elementos
  • Compreensão das estruturas linguísticas

O argumento é forte para a afirmação de que os cinco primeiros são um mecanismo de convergência em um modelo, e toda a estrutura de aprendizado de máquina é apenas um método para ajustar os dados ao modelo.

Esses dois últimos itens são onde o paradigma se quebra e onde muitos pesquisadores e autores de IA afirmaram corretamente que o aprendizado de máquina tem limitações significativas quando baseado apenas em perceptrons multicamadas de camadas e núcleos de convolução. Além disso, o último item do marcador é simplificado demais em seu estado atual, provavelmente por ordens de magnitude. Mesmo que Minsky esteja certo de que um computador pode executar o que o cérebro faz, o processo de leitura e compreensão deste parágrafo poderia facilmente ter milhares de tipos diferentes de componentes de processo exclusivos nos padrões de fluxo de trabalho interno com paralelismo maciço. A tecnologia de imagem indica essa probabilidade. Temos computadores modelando apenas as camadas periféricas mais simples.

Existe algum argumento científico / matemático que impeça que o aprendizado profundo produza uma IA forte? - Não. Mas também não existe esse argumento que o garanta.

Outras perguntas aqui investigam se esses sofisticados ajustadores de curva podem executar elementos de cognição ou raciocínio.

O totem de três na imagem da pergunta, vendo, fazendo e imaginando, não é particularmente completo, preciso ou perspicaz.

  • Existem pelo menos cinco paradigmas sensoriais nos seres humanos, não um
  • Fazendo os sentidos humanos precedidos por bilhões de anos - as bactérias
  • Imaginar não é um processo significativamente mais alto do que a reprodução de cenários de modelos de experiências anteriores com algum método para aplicar funções definidas para combiná-las e injetar mutações aleatórias
  • A criatividade pode ser apenas imaginada no item anterior, seguida de eliminação de resultados inúteis da imaginação com alguns critérios de qualidade orientados para o mercado, deixando os impressionantes produtos criativos que vendem

As formas superiores são apreciação, senso de realidades além do escopo da medição científica, dúvida legítima, amor, sacrifício pelo bem dos outros ou pela humanidade.

Muitos reconhecem que o estado atual da tecnologia de IA não está nem perto da aquisição de um sistema que possa responder com segurança: "Como posso fazer Y acontecer?" ou "Se eu agi de maneira diferente, o X ainda ocorrerá?"

Não há prova matemática de que alguma combinação de pequenos elementos de ajuste de curva possa ou não alcançar a capacidade de responder a essas perguntas, assim como um ser humano típico pode, principalmente porque não há entendimento suficiente sobre o que é inteligência ou como defini-la em termos matemáticos.

Também é possível que a inteligência humana não exista, que as referências a ela se baseiem na crença religiosa de que somos mais elevados como espécie do que outras espécies. O fato de podermos preencher, consumir e exterminar não é realmente uma concepção muito inteligente de inteligência.

A alegação de que a inteligência humana é uma adaptação que nos diferencia de outros mamíferos entra em conflito com o fato de nos adaptarmos bem. Nós não fomos testados. Venha o próximo assassino global meteórico com uma onda de choque da magnitude da do meteoro da cratera Chicxulub, seguida por alguns e mil anos de inverno solar e veremos se é nossa existência de 160.000 anos ou a existência de 4.000.000.000 de bactérias que prova mais sustentável. Na linha do tempo da vida, a inteligência humana ainda não se mostrou significativa como uma característica adaptativa.

O que está claro sobre o desenvolvimento da IA ​​é que outros tipos de sistemas estão desempenhando um papel junto com aprendizes profundos, baseados no conceito de perceptron de múltiplas camadas e nos núcleos de convolução que são estritamente adaptadores de superfície.

Componentes de Q-learning, componentes baseados em atenção e componentes de memória de longo prazo também são estritamente adequados, mas apenas estendendo consideravelmente a definição de ajuste de superfície. Eles têm propriedades e estado adaptativos em tempo real, para que possam ser completos com Turing.

Contêineres lógicos nebulosos, sistemas baseados em regras, algoritmos com propriedades Markovianas e muitos outros tipos de componentes também desempenham seu papel e não são de todo adequados para a superfície.

Em resumo, há argumentos que se baseiam em mais do que plausibilidade ou em uma qualidade intuitiva agradável; no entanto, muitos desses autores não fornecem uma estrutura matemática com definições, aplicações, lemas, teoremas, provas ou mesmo experimentos mentais que podem ser examinado de maneira formal.


1

É um paradoxo, mas uma máquina de aprendizado profundo (definida como uma variante da NeuralNet) é incapaz de aprender qualquer coisa. É uma arquitetura de hardware / software flexível e configurável que pode ser parametrizada para resolver muitos problemas. Mas os parâmetros ideais para resolver um problema são obtidos por um sistema externo, ou seja, algoritmo de retropropagação.

O subsistema de retropropagação usa paradigmas de programação convencionais, não é uma rede neural. Esse fato está em absoluta oposição à mente humana, onde o aprendizado e o uso do conhecimento são realizados pelo mesmo sistema (a mente).

Se todas as coisas realmente interessantes forem feitas fora do NN, é difícil afirmar que um NN (em qualquer variante) pode se desenvolver em um AGI.

Também é possível encontrar mais algumas diferenças. As redes neurais são fortemente numéricas em sua interface e internals. Desse ponto de vista, eles são uma evolução das máquinas de vetores de suporte.

Diferenças e restrições em excesso para esperar um AGI.

Nota: Discordo totalmente do sorteio incluído na pergunta original. "Ver", "fazer", "geração de imagens" são níveis absolutamente errados. Ele ignora os conceitos básicos e comuns de software como "abstração" ou "estado do programa" (da mente, em palavras de Turing); os IA aplicados como "prever"; e AGI como "livre arbítrio", "objetivos e sentimentos", ...


4
Eu acho que remover a propagação traseira (ou qualquer parte da estrutura de treinamento) da consideração e alegar que a parte restante é a parte "Aprendizagem Profunda" é artificial e meio que esquiva a questão. Eu acho que é razoável supor que OP significa Deep Learning como é praticado, incluindo os processos de treinamento disponíveis.
Neil Slater

1
@NeilSlater: Se dissermos que um DL é um tipo de NeuralNet (para observar a semelhança com a mente humana e, como conseqüência, seu possível poder de alcançar um AGI), estamos excluindo a parte de aprendizado, que não é um NN . Se incluirmos o subsistema de aprendizado na definição de um DL, ele não é um NN, é apenas uma programação convencional, com o poder de qualquer programa convencional, e tem as mesmas possibilidades de atingir a AGI do que qualquer outro sistema ou paradigma de programa.
pasaba por aqui 15/06/18

Os cérebros humanos aprendem recebendo e processando informações de "sistemas" externos exclusivamente. Os parâmetros ideais para resolver problemas são obtidos por tentativa e erro, aplicando regras e processando dados de sistemas externos. O treinamento começa enquanto o bebê ainda está no útero e continua 24 horas por dia, 7 dias por semana. O estado atual da IA ​​quase certamente não é comparável a emular o cérebro humano; mas afirmar que a IA não pode aprender (ou já não está aprendendo de maneira semelhante ao cérebro humano) pressupõe conhecimento de como o cérebro humano 'aprende' e funciona que a ciência ainda não conhece.
Dunk
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.