Não consigo descobrir como a AWS configura o 'thin pool' do Docker no ElasticBeanstalk e como está sendo preenchido. Meu thin pool do Docker está se enchendo de alguma forma e está causando o travamento dos meus aplicativos quando eles tentam gravar no disco.
Isto é de dentro do contêiner:
>df -h
> /dev/xvda1 25G 1.4G 24G 6%
De fato, o EBS possui um disco de 25 GB distribuído a ele; 1,6 gb é o que du -sh /
retorna.
Lá fora, no EC2, ele começa de maneira inocente o suficiente ... (via lvs
)
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
docker-pool docker twi-aot--- 11.86g 37.50 14.65
No entanto, o sistema de arquivos em breve será novamente montado como somente leitura. via dmesg:
[2077620.433382] Buffer I/O error on device dm-4, logical block 2501385
[2077620.437372] EXT4-fs warning (device dm-4): ext4_end_bio:329: I/O error -28 writing to inode 4988708 (offset 0 size 8388608 starting block 2501632)
[2077620.444394] EXT4-fs warning (device dm-4): ext4_end_bio:329: I/O error [2077620.473581] EXT4-fs warning (device dm-4): ext4_end_bio:329: I/O error -28 writing to inode 4988708 (offset 8388608 size 5840896 starting block 2502912)
[2077623.814437] Aborting journal on device dm-4-8.
[2077649.052965] EXT4-fs error (device dm-4): ext4_journal_check_start:56: Detected aborted journal
[2077649.058116] EXT4-fs (dm-4): Remounting filesystem read-only
De volta à instância do EC2, o Docker relata isso: (de docker info
)
Pool Name: docker-docker--pool
Pool Blocksize: 524.3 kB
Base Device Size: 107.4 GB
Backing Filesystem: ext4
Data file:
Metadata file:
Data Space Used: 12.73 GB
Data Space Total: 12.73 GB
Data Space Available: 0 B
Metadata Space Used: 3.015 MB
Metadata Space Total: 16.78 MB
Metadata Space Available: 13.76 MB
Thin Pool Minimum Free Space: 1.273 GB
O LVS despeja essa informação:
--- Logical volume ---
LV Name docker-pool
VG Name docker
LV UUID xxxxxxxxxxxxxxxxxxxxxxxxxxxx
LV Write Access read/write
LV Creation host, time ip-10-0-0-65, 2017-03-25 22:37:38 +0000
LV Pool metadata docker-pool_tmeta
LV Pool data docker-pool_tdata
LV Status available
# open 2
LV Size 11.86 GiB
Allocated pool data 100.00%
Allocated metadata 17.77%
Current LE 3036
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:2
O que é esse pool fino, por que ele enche e como eu o impedi de fazer isso? Além disso, se eu tenho mais de 20 GB livres de dentro do contêiner no meu / volume, por que interrompe novas gravações? Tanto quanto posso dizer, não está conectado aos arquivos nos quais meus programas estão gravando.
Obrigado!