Estou executando uma rede neural de aprendizado profundo que foi treinada por uma GPU. Agora eu quero implantar isso em vários hosts para inferência. A questão é: quais são as condições para decidir se devo usar GPUs ou CPUs como inferência?
Adicionando mais detalhes dos comentários abaixo.
Eu sou novo nisso, então a orientação é apreciada.
Memória : GPU é K80
Estrutura : Cuda e cuDNN
Tamanho dos dados por carga de trabalho : 20G
Nós de computação para consumir : um por trabalho, embora deseje considerar uma opção de escala
Custo : posso comprar uma opção de GPU se os motivos fizerem sentido
Implantação : Executando em servidores bare metal hospedados, não na nuvem.
No momento, estou executando na CPU simplesmente porque o aplicativo funciona bem. Mas, fora desse motivo, não sei por que alguém consideraria a GPU.