Tudo relacionado às redes Deep Learning (DL) e deep (er) parece "bem-sucedido", pelo menos progredindo muito rápido e cultivando a crença de que a AGI está ao alcance. Isso é imaginação popular. O DL é uma ferramenta tremenda para enfrentar tantos problemas, incluindo a criação de AGIs. Não é suficiente, no entanto. Uma ferramenta é um ingrediente necessário, mas muitas vezes insuficiente.
As principais figuras do domínio estão procurando outro lugar para fazer progressos. Este relatório / reivindicação reúne links para declarações de Yoshua Bengio , Yann LeCun e Geoff Hinton . O relatório também explica:
As principais fraquezas da DL (como eu as vejo) são: dependência dos neurônios modelo mais simples possíveis ("caricaturais" como LeCun os chama); uso de idéias da Mecânica Estatística e Estatística do século XIX, que são a base das funções energéticas e dos métodos de probabilidade de log; e a combinação delas em técnicas como descida do gradiente backprop e estocástico, levando a um regime de aplicação muito limitado (aprendizado offline, principalmente em lotes, supervisionado), exigindo que profissionais altamente talentosos (também conhecidos como "descendentes estocásticos de pós-graduação"), grandes quantias caras dados de treinamento rotulados e poder computacional. Embora seja excelente para grandes empresas que podem atrair ou comprar talentos e implantar recursos ilimitados para coletar e processar dados, o DL simplesmente não é acessível nem útil para a maioria de nós.
Embora interessante e relevante, esse tipo de explicação não aborda realmente a essência do problema: o que está faltando?
A pergunta parece ampla, mas pode ser por falta de uma resposta simples. Existe uma maneira de identificar o que falta ao DL para um AGI?