Uma das vantagens do REST é a capacidade de armazenar em cache as solicitações por caches http tradicionais (assumindo que sejam solicitações armazenáveis em cache).
Quando você tem solicitações únicas, maiores, usadas com menos frequência e possivelmente diferentes (vou buscar itens a,b,c,d
desta vez e da a,b,d,e
próxima vez), você aumenta a probabilidade de a solicitação ser um erro de cache e expirar de um cache que pode ser sentado em algum lugar entre você e a fonte.
Dado os dois conjuntos de solicitações mencionados acima, a segunda requisição pode ter uma taxa de acerto de cache de 75% e ser uma busca substancialmente mais rápida e
, em vez das quatro coisas.
Observe que isso pode não ser imediatamente aparente para as pessoas que o usam, pois a pessoa que faz o primeiro conjunto de solicitações de falta de cache ainda terá as falhas de cache.
Isso não quer dizer que seria ideal em uma conexão de rede móvel em que é menos provável que ocorram hits de cache não local. Mas para pontos quentes ou outras situações de wifi, os acertos do cache podem ser muito mais úteis.
Muito disso, novamente, está sujeito ao funcionamento do seu aplicativo. Está pedindo todos esses dados na inicialização? ou estamos falando de um carregamento de página em que as expectativas de tempo de resposta são diferentes?
O ideal é testar isso para ver como o seu aplicativo é pré-formado em várias situações. Considere a possibilidade de configurar uma situação em que você vinculou seu dispositivo móvel a uma rede wifi local que você pode monitorar (que é apenas o primeiro hit do google) e simular uma conexão de Internet ruim para ver como as coisas realmente funcionam (ou não) e qual tem o melhor desempenho.