Eu tenho a seguinte configuração:
- uma máquina host que executa três contêineres de encaixe:
- MongoDB
- Redis
- Um programa usando os dois contêineres anteriores para armazenar dados
Redis e MongoDB são usados para armazenar grandes quantidades de dados. Eu sei que o Redis precisa manter todos os seus dados na RAM e estou bem com isso. Infelizmente, o que acontece é que o mongo começa a ocupar muita RAM e, assim que a RAM do host estiver cheia (estamos falando de 32 GB aqui), o mongo ou o Redis travam.
Eu li as seguintes perguntas anteriores sobre isso:
- Limitar o uso da RAM do MongoDB : aparentemente, a maioria da RAM é usada pelo cache do WiredTiger
- Memória limite do MongoDB : aqui, aparentemente, o problema era dados de log
- Limite o uso de memória RAM no MongoDB : aqui eles sugerem limitar a memória do mongo para que ele use uma quantidade menor de memória para seu cache / logs / dados
- MongoDB usando muita memória : aqui eles dizem que é o sistema de cache WiredTiger que tende a usar o máximo de RAM possível para fornecer acesso mais rápido. Eles também afirmam
it's completely okay to limit the WiredTiger cache size, since it handles I/O operations pretty efficiently
- Existe alguma opção para limitar o uso da memória do mongodb? : cache novamente, eles também adicionam
MongoDB uses the LRU (Least Recently Used) cache algorithm to determine which "pages" to release, you will find some more information in these two questions
- Relação MongoDB / RAM / índice : citação:
MongoDB keeps what it can of the indexes in RAM. They'll be swaped out on an LRU basis. You'll often see documentation that suggests you should keep your "working set" in memory: if the portions of index you're actually accessing fit in memory, you'll be fine.
- como liberar o cache usado pelo MongoDB? : mesma resposta que em 5.
Agora, o que pareço entender de todas essas respostas é que:
- Para um acesso mais rápido, seria melhor para o mongo caber todos os índices na RAM. No entanto, no meu caso, estou bem com índices que residem parcialmente no disco, pois tenho um SSD bastante rápido.
- A RAM é usada principalmente para armazenamento em cache pelo mongo.
Considerando isso, eu esperava que o mongo tentasse usar o máximo de espaço de RAM possível, mas também poderia funcionar com pouco espaço de RAM e buscar a maioria das coisas do disco. No entanto, limitei a memória do mongo Docker container (para 8 GB, por exemplo), usando --memory
e --memory-swap
, mas em vez de buscar coisas no disco, o mongo travou assim que ficou sem memória.
Como forçar o mongo a usar apenas a memória disponível e a buscar do disco tudo o que não cabe na memória?
dmesg
correlacionada com o desligamento inesperado? A possibilidade mais provável com o Docker é que os processos no contêiner detectem a RAM geral disponível em vez do limite do contêiner.
mongod
em um contêiner ( lxc
, cgroups
Docker, etc.) que não tenha acesso a toda a RAM disponível em um sistema, será necessário definir storage.wiredTiger.engineConfig.cacheSizeGB
um valor menor que a quantidade de RAM disponível em o recipiente. A quantidade exata depende dos outros processos em execução no contêiner, mas normalmente não deve ser maior que o valor padrão de 50% da RAM menos 1 GB.