Uma convolução emprega um princípio de compartilhamento de peso que complicará significativamente a matemática, mas vamos tentar superar as ervas daninhas. Estou tirando a maior parte da minha explicação dessa fonte .
Passar para a frente
Como você observou, a passagem direta da camada convolucional pode ser expressa como
xli,j=∑m∑nwlm,nol−1i+m,j+n+bli,j
k1k2k1=k2=2x0,0=0.25mn
Retropropagação
Supondo que você esteja usando o erro quadrático médio (MSE) definido como
E=12∑p(tp−yp)2
nós queremos determinar
∂E∂wlm′,n′m′n′w10,0=−0.13HK
(H−k1+1)(W−k2+1)
44w10,0=−0.13x10,0=0.25
∂E∂wlm′,n′=∑H−k1i=0∑W−k2j=0∂E∂xli,j∂xli,j∂wlm′,n′
Isso itera por todo o espaço de saída, determina o erro que a saída está contribuindo e, em seguida, determina o fator de contribuição do peso do kernel em relação a essa saída.
Vamos chamar a contribuição para o erro do delta do espaço de saída por simplicidade e acompanhar o erro retropropagado,
∂E∂xli,j=δli,j
A contribuição dos pesos
A convolução é definida como
xli,j=∑m∑nwlm,nol−1i+m,j+n+bli,j
portanto,
∂xli,j∂wlm′,n′=∂∂wlm′,n′(∑m∑nwlm,nol−1i+m,j+n+bli,j)
m=m′n=n′
∂xli,j∂wlm′,n′=ol−1i+m′,j+n′
Então, de volta ao nosso termo de erro
∂E∂wlm′,n′=∑H−k1i=0∑W−k2j=0δli,jol−1i+m′,j+n′
Descida do gradiente estocástico
w(t+1)=w(t)−η∂E∂wlm′,n′
Vamos calcular alguns deles
import numpy as np
from scipy import signal
o = np.array([(0.51, 0.9, 0.88, 0.84, 0.05),
(0.4, 0.62, 0.22, 0.59, 0.1),
(0.11, 0.2, 0.74, 0.33, 0.14),
(0.47, 0.01, 0.85, 0.7, 0.09),
(0.76, 0.19, 0.72, 0.17, 0.57)])
d = np.array([(0, 0, 0.0686, 0),
(0, 0.0364, 0, 0),
(0, 0.0467, 0, 0),
(0, 0, 0, -0.0681)])
gradient = signal.convolve2d(np.rot90(np.rot90(d)), o, 'valid')
matriz ([[0,044606, 0,094061], [0,011262, 0,068288]])
∂E∂w
Informe-me se houver erros na derivação.
Atualização: código corrigido