ESXi 6.0 montando RDM como volume local


0

Acabei de atualizar meu host ESXi para 6.0 e notei um efeito colateral estranho. Agora, quando a inicialização do meu dispositivo local RDM é montada automaticamente pelo próprio Hypervisor e minha VM não pode ser inicializada porque o dispositivo está bloqueado pelo SO (o erro que estou recebendo é Failed to lock the file).

Se eu listar todos os dispositivos:

[root@esx:~] esxcli storage filesystem list
Mount Point                                        Volume Name  UUID                                 Mounted  Type             Size          Free
-------------------------------------------------  -----------  -----------------------------------  -------  ------  -------------  ------------
/vmfs/volumes/4cdacf34-9bc2bc46-e644-d48564c85da5  SYSTEM HDU   4cdacf34-9bc2bc46-e644-d48564c85da5     true  VMFS-5   154618822656  127827705856
/vmfs/volumes/4cdacf03-d1fb2b7d-6384-d48564c85da5  DATA HDU     4cdacf03-d1fb2b7d-6384-d48564c85da5     true  VMFS-5  2000112582656  893103636480
/vmfs/volumes/5000b526-be6827b9-b9e9-009c02a7fbf2               5000b526-be6827b9-b9e9-009c02a7fbf2     true  vfat        299712512      83451904
/vmfs/volumes/ad7377ea-9bfcba10-6bad-896a6ee35f64               ad7377ea-9bfcba10-6bad-896a6ee35f64     true  vfat        261853184      87711744
/vmfs/volumes/0baa70e5-8a38dacf-3d88-bca98a363fc0               0baa70e5-8a38dacf-3d88-bca98a363fc0     true  vfat        261853184     122646528
/vmfs/volumes/3c3693e8-f77a642a-1910-5c6bdcb26d3a  Hypervisor3  3c3693e8-f77a642a-1910-5c6bdcb26d3a     true  vfat        299778048     157663232
/vmfs/volumes/b901cb7d-fd6e00e0-e5eb-b36b42d0950f  Hypervisor2  b901cb7d-fd6e00e0-e5eb-b36b42d0950f     true  vfat        261853184     261849088
/vmfs/volumes/4cdacf0f-59b94c5a-79e7-d48564c85da5               4cdacf0f-59b94c5a-79e7-d48564c85da5     true  vfat       4293591040    4269015040
/vmfs/volumes/5b569e71-4ede41ca-d19f-f2af4b6cee7c  Hypervisor1  5b569e71-4ede41ca-d19f-f2af4b6cee7c     true  vfat        261853184     169762816
/vmfs/volumes/localRDM                             RDM          5512f47e-00000000-0000-000000000000     true  ufs     1998251364352  288346738688

O dispositivo que estou tentando desmontar é o último

Mount Point                                        Volume Name  UUID                                 Mounted  Type             Size          Free
-------------------------------------------------  -----------  -----------------------------------  -------  ------  -------------  ------------
/vmfs/volumes/localRDM                             RDM          5512f47e-00000000-0000-000000000000     true  ufs     1998251364352  288346738688

Conforme declarado pelos documentos , tentei desmontá-lo, mas o sistema operacional está reclamando e não parece querer desmontá-lo:

[root@esx:~] esxcli storage filesystem unmount -l RDM
No volume with label 'RDM' was found
[root@esx:~] esxcli storage filesystem unmount -p /vmfs/volumes/localRDM
No NAS volume was found mounted on '/vmfs/volumes/localRDM'
[root@esx:~] esxcli storage filesystem unmount -u 5512f47e-00000000-0000-000000000000
No volume with uuid '5512f47e-00000000-0000-000000000000' was found

De acordo com os documentos, a sintaxe para desmontar um dispositivo é:

# esxcli storage filesystem unmount [-u UUID | -l label | -p path ]

mas como você pode ver nenhum resultado até agora.

Gostaria de saber se eu remover o arquivo vmdk para este dispositivo e recriá-lo pode resolver o problema, mas tenho medo de perder todos os dados nele.

Editado 1

Ok, excluí o mapeamento de arquivo vmdk, mas o ESXi ainda está montando automaticamente o disco (e não, não há perda de dados)

Editado 2

Vejo que não há relação direta com o disco sendo passado e o ESXi montando automaticamente, pois conectei uma unidade UFS2 recém-formatada e o ESXi também montou automaticamente (e ainda não há RDM para este criado)


Você tentou recriar o mapeamento RDM desde a atualização? Isso geralmente torna o disco indisponível localmente.
precisa saber é o seguinte

Sim, eu fiz isso, não houve resultados até agora (Eu tentei substituir o disco também, mas mesmo bahaviour)
MTorres

Respostas:


1

Eu tive o mesmo problema com as unidades RDM UFS usadas no NAS4Free sendo mapeadas como uma pasta, então fui aos Fóruns do VMWare e pedi ajuda.

Aqui está a resposta do usuário themiron nos fóruns do VMWare.

é possível colocar o módulo ufs na lista negra com o seguinte comando esxcli, para que nenhuma montagem automática de volumes ufs aconteça. é necessário reiniciar o host

Conjunto de módulos do sistema $ esxcli -m ufs -e false

https://communities.vmware.com/thread/517516 (adicionado o link à fonte original, conforme indicado)


Bem-vindo ao superusuário. Obrigado por trazer aqui a parte essencial da sua fonte citada. Adicione também um link à sua fonte para a atribuição adequada. Obrigado por contribuir.
Twisty Impersonator

Valeu cara! Venha para pensar sobre isso, a solução é bastante óbvia :-) Agora eu fiz o downgrade para 5.5, mas tenho uma cópia da minha instalação 6.0, então vou tentar!
MTorres
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.