Eu li alguns artigos sobre imagens manualmente inventadas para "enganar" uma rede neural (veja abaixo).
Isso ocorre porque as redes modelam apenas a probabilidade condicional ?
Se uma rede puder modelar a probabilidade conjunta , esses casos ainda ocorrerão?
Meu palpite é que essas imagens geradas artificialmente são diferentes dos dados de treinamento, portanto são de baixa probabilidade . Portanto, deve ser baixo, mesmo que possa ser alto para essas imagens.
Atualizar
Eu tentei alguns modelos generativos, acabou não sendo útil, então acho que provavelmente isso é uma consequência do MLE?
Quero dizer, no caso em que a divergência KL é usada como função de perda, o valor de que p d a t a ( x ) é pequeno não afeta a perda. Portanto, para uma imagem artificial que não corresponde a p d a t a , o valor de p θ pode ser arbitrário.
Atualizar
Encontrei um blog de Andrej Karpathy que mostra
Esses resultados não são específicos para imagens, ConvNets e também não são uma “falha” no Deep Learning.
EXPLICAR E APRENDER A EXEMPLOS ADVERSÁRIOS As redes neurais profundas são facilmente enganadas: previsões de alta confiança para imagens irreconhecíveis