No aprendizado de máquina básico, aprendemos as seguintes "regras práticas":
a) o tamanho dos seus dados deve ser pelo menos 10 vezes o tamanho da dimensão VC do seu conjunto de hipóteses.
b) uma rede neural com conexões N tem uma dimensão VC de aproximadamente N.
Então, quando uma rede neural de aprendizado profundo diz, milhões de unidades, isso significa que deveríamos ter, digamos, bilhões de pontos de dados? Você pode, por favor, lançar alguma luz sobre isso?