Perguntas com a marcação «recurrent-neural-network»


5
por que “empacotamos” as sequências em pytorch?
Eu estava tentando replicar como usar o empacotamento para entradas de sequência de comprimento variável para rnn, mas acho que primeiro preciso entender por que precisamos "empacotar" a sequência. Eu entendo por que precisamos "preenchê-los", mas por que "empacotar" (através pack_padded_sequence) é necessário? Qualquer explicação de alto nível seria apreciada!
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.