Perguntas com a marcação «deep-learning»

Aprendizado profundo é uma área de aprendizado de máquina cujo objetivo é aprender funções complexas usando arquiteturas de rede neural especiais que são "profundas" (consistem em muitas camadas). Essa tag deve ser usada para perguntas sobre a implementação de arquiteturas de aprendizado profundo. Perguntas gerais sobre aprendizado de máquina devem ser marcadas como "aprendizado de máquina". Incluir uma tag para a biblioteca de software relevante (por exemplo, "keras", "tensorflow", "pytorch", "fast.ai" e etc) é útil.


7
“UserWarning: Não foi possível recuperar uma entrada. Pode ser porque um trabalhador morreu. Não temos informações sobre a amostra perdida. ”
Durante o modelo de treinamento, recebi o aviso "UserWarning: Não foi possível recuperar a entrada. Pode ser que um trabalhador tenha morrido. Não temos informações sobre a amostra perdida.)", Depois de mostrar esse aviso, o modelo inicia o treinamento. O que esse aviso significa? É algo que afetará meu treinamento …

1
Salvar modelo a cada 10 épocas tensorflow.keras v2
Estou usando o keras definido como submódulo no tensorflow v2. Estou treinando meu modelo usando o fit_generator()método Quero salvar meu modelo a cada 10 épocas. Como posso conseguir isso? Em Keras (não como um submódulo de tf), eu posso dar ModelCheckpoint(model_savepath,period=10). Mas na t2 v2, eles mudaram isso para ModelCheckpoint(model_savepath, …

2
Usando o módulo cerebral de Gekko, como determino quantas camadas e que tipo de camada usar para resolver um problema de aprendizado profundo?
Estou aprendendo a usar o módulo cerebral de Gekko para aplicativos de aprendizado profundo. Eu tenho criado uma rede neural para aprender a função numpy.cos () e depois produzir resultados semelhantes. Fico bem quando os limites do meu treinamento são: x = np.linspace(0,2*np.pi,100) Mas o modelo desmorona quando tento estender …
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.