No espírito da famosa piada Tensorflow Fizz Buzz e do problema XOr , comecei a pensar, se é possível projetar uma rede neural que implemente a função ?
Dada alguma representação de um número (por exemplo, como um vetor em forma binária, para que esse número 5
seja representado como [1,0,1,0,0,0,0,...]
), a rede neural deve aprender a retornar seu quadrado - 25 neste caso.
Se eu pudesse implementar , provavelmente poderia implementar e geralmente qualquer polinômio de x, e com a série Taylor eu poderia aproximar , o que resolveria o problema do Fizz Buzz - uma rede neural que pode encontrar o restante da divisão.
Claramente, apenas a parte linear dos NNs não será capaz de executar esta tarefa; portanto, se pudéssemos fazer a multiplicação, isso aconteceria graças à função de ativação.
Você pode sugerir alguma idéia ou leitura sobre o assunto?