RAID 1 mdadm simples não ativando sobressalentes


24

Eu criei duas partições de 2 TB HDD ( /dev/sdb1e /dev/sdc1) em um array RAID 1 chamado /dev/md0usando mdadmno Ubuntu 12.04 LTS Precise Pangolin.

O comando sudo mdadm --detail /dev/md0usado para indicar ambas as unidades como sincronização ativa .

Em seguida, nos testes, falhei /dev/sdb1, removi-o e adicionei-o novamente com o comandosudo mdadm /dev/md0 --add /dev/sdb1

watch cat /proc/mdstat mostrou uma barra de progresso da reconstrução da matriz, mas como eu não passava horas assistindo, assumi que o software sabia o que estava fazendo.

Depois que a barra de progresso não era mais exibida, é cat /proc/mdstatexibido:

md0 : active raid1 sdb1[2](S) sdc1[1]
      1953511288 blocks super 1.2 [2/1] [U_]

E sudo mdadm --detail /dev/md0mostra:

/dev/md0:
        Version : 1.2
  Creation Time : Sun May 27 11:26:05 2012
     Raid Level : raid1
     Array Size : 1953511288 (1863.01 GiB 2000.40 GB)
  Used Dev Size : 1953511288 (1863.01 GiB 2000.40 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Mon May 28 11:16:49 2012
          State : clean, degraded 
 Active Devices : 1
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 1

           Name : Deltique:0  (local to host Deltique)
           UUID : 49733c26:dd5f67b5:13741fb7:c568bd04
         Events : 32365

    Number   Major   Minor   RaidDevice State
       1       8       33        0      active sync   /dev/sdc1
       1       0        0        1      removed

       2       8       17        -      spare   /dev/sdb1

Foi-me dito que o mdadm substitui automaticamente as unidades removidas por peças de reposição, mas /dev/sdb1não está sendo movido para a posição esperada, RaidDevice 1.


ATUALIZAÇÃO (30 de maio de 2012): Um teste badblocksdestrutivo de leitura e gravação de todo o /dev/sdbdisco não produziu erros conforme o esperado; os dois HDs são novos.

Na edição mais recente, montei a matriz com este comando:

sudo mdadm --assemble --force --no-degraded /dev/md0 /dev/sdb1 /dev/sdc1

A saída foi:

mdadm: /dev/md0 has been started with 1 drive (out of 2) and 1 rebuilding.

A reconstrução parece que está progredindo normalmente:

md0 : active raid1 sdc1[1] sdb1[2]
      1953511288 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.6% (13261504/1953511288) finish=2299.7min speed=14060K/sec

unused devices: <none>

Agora estou aguardando essa reconstrução, mas espero me /dev/sdb1tornar um sobressalente, assim como as cinco ou seis vezes que tentei reconstruir antes.


ATUALIZAÇÃO (31 de maio de 2012): Sim, ainda é uma reposição. Ugh!


ATUALIZAÇÃO (01 de junho de 2012): Estou tentando o comando sugerido por Adrian Kelly :

sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1

Aguardando a reconstrução agora ...


ATUALIZAÇÃO (02 de junho de 2012): Não, ainda é um ...


UPDATE (4 de junho, 2012): PB trouxe à tona uma preocupação que eu negligenciado: talvez /dev/sdc1é encontrar erros de E / S . Eu não me preocupei em verificar /dev/sdc1porque parecia estar funcionando muito bem e era novo em folha, mas erros de E / S no final da unidade são uma possibilidade racional.

Eu comprei esses HDs à venda, portanto não seria surpresa que um deles já esteja falhando. Além disso, nenhum deles tem suporte para o SMART , portanto, não é de admirar que eles fossem tão baratos ...

Aqui está o procedimento de recuperação de dados que acabei de criar e estou seguindo:

  1. sudo mdadm /dev/md0 --fail /dev/sdb1para que eu possa tirar /dev/sdb1.
  2. sudo mdadm /dev/md0 --remove /dev/sdb1para remover /dev/sdb1da matriz.
  3. /dev/sdc1 está montado em /media/DtkBk
  4. Formate /dev/sdb1como ext4.
  5. Monte /dev/sdb1em /media/DtkBkTemp.
  6. cd /media para trabalhar nessa área.
  7. sudo chown deltik DtkBkTemppara me dar (nome de usuário deltik) direitos para a partição.
  8. Copie todos os arquivos e diretórios: sudo rsync -avzHXShP DtkBk/* DtkBkTemp

UPDATE (06 de junho de 2012): fiz um teste badblocksdestrutivo no modo de gravação /dev/sdc, seguindo os seguintes procedimentos:

  1. sudo umount /media/DtkBk para permitir o rompimento da matriz.
  2. sudo mdadm --stop /dev/md0 para parar a matriz.
  3. sudo badblocks -w -p 1 /dev/sdc -s -vpara limpar o disco rígido suspeito e, no processo, verifique se há erros de E / S. Se houver erros de E / S, esse não é um bom sinal. Espero conseguir um reembolso ...

Confirmei agora que não há problemas de entrada / saída em qualquer disco rígido .

De toda essa investigação, minhas duas perguntas originais ainda permanecem.


Minhas perguntas são:

  1. Por que a unidade sobressalente não está se tornando sincronizada ativamente?
  2. Como faço para ativar a unidade sobressalente?

Respostas:


14

Isso simplesmente lança a unidade na matriz sem realmente fazer nada com ela, ou seja, é um membro da matriz, mas não está ativo nela. Por padrão, isso o transforma em um sobressalente:

sudo mdadm /dev/md0 --add /dev/sdb1

Se você tiver um sobressalente, poderá aumentá-lo forçando a contagem de unidades ativas para o array crescer. Com 3 unidades e 2 com previsão de ativação, você precisaria aumentar a contagem ativa para 3.

mdadm --grow /dev/md0 --raid-devices=3

O driver da matriz de ataques notará que você está "curto" em uma unidade e, em seguida, procurará uma sobressalente. Encontrando o sobressalente, ele o integrará na matriz como uma unidade ativa. Abra um terminal sobressalente e deixe que esta linha de comando um tanto grosseira seja executada nele, para acompanhar o progresso da ressincronização. Digite-o como uma linha ou use o caractere de quebra de linha (\) e, assim que a reconstrução terminar, digite Ctrl-C no terminal.

while true; do sleep 60; clear; sudo mdadm --detail /dev/md0; echo; cat /proc/mdstat; done

Sua matriz agora terá duas unidades ativas sincronizadas, mas como não há três unidades, ela não estará 100% limpa. Remova a unidade com falha e redimensione a matriz. Note que a --growbandeira é um pouco de um equívoco - isso pode significar quer crescer ou encolher:

sudo mdadm /dev/md0 --fail /dev/{failed drive}
sudo mdadm /dev/md0 --remove /dev/{failed drive}
sudo mdadm --grow /dev/md0 --raid-devices=2

Com relação aos erros, um problema de link com a unidade (ou seja, a porta PATA / SATA, cabo ou conector da unidade) não é suficiente para acionar um failover de um hot spare, pois o kernel normalmente passa a usar o outro "bom" enquanto redefine o link para a unidade "incorreta". Eu sei disso porque executo uma matriz de 3 unidades, duas quentes, uma sobressalente e uma das unidades recentemente decidiu vomitar um pouco nos logs. Quando testei todas as unidades da matriz, todas as três passaram na versão "longa" do teste SMART; portanto, não há problema com os pratos, os componentes mecânicos ou o controlador onboard - o que deixa um cabo de ligação esquisito ou um porta SATA ruim. Talvez seja isso que você está vendo. Tente mudar a unidade para uma porta diferente da placa-mãe ou usando um cabo diferente e verifique se ela melhora.


Um acompanhamento: concluí minha expansão do espelho para 3 unidades, falhei e removi a unidade escamosa da matriz md, troquei o cabo a quente por uma nova (a placa-mãe suporta isso) e re-adicionei a unidade. Após a reinicialização, ele imediatamente iniciou uma ressincronização da unidade. Até o momento, nenhum erro apareceu no log, apesar da unidade estar sendo muito usada. Portanto, sim, os cabos da unidade podem ficar esquisitos.


Cabo de ligação esquisito? Eu compro essa explicação, mas não posso mais testá-la porque propus as duas unidades há meses. Aceito esta resposta como a melhor resposta para meu problema específico, mas outra ótima resposta é essa .
Deltik

Como atualização, essa resposta continua sendo a mais útil para a maioria das pessoas, e é por isso que a aceitei, mas o que realmente aconteceu foi que uma das unidades na minha matriz RAID 1 estava ruim, provavelmente /dev/sdc1no momento porque /dev/sdc1estava sendo lida enquanto /dev/sdb1estava sendo escrito, e setores defeituosos /dev/sdb1teriam sido remapeados de forma transparente durante a escrita.
Deltik

1
Para manter o controle sobre o processo de ressincronização fazer watch -n 60 cat /proc/mdstat, onde 60é o número de segundos entre as atualizações.
Erk

8

Eu tive exatamente o mesmo problema e, no meu caso, descobri que o disco RAID ativo sofria de erros de leitura durante a sincronização. Portanto, o novo disco foi mais recente sincronizado com sucesso e, portanto, foi mantido marcado como sobressalente.

Você pode querer verificar seus / var / log / messages e outros logs do sistema quanto a erros. Além disso, também pode ser uma boa ideia verificar o status SMART do seu disco:
1) Execute o teste curto:

"smartctl -t curto / dev / sda"

2) Exiba os resultados do teste:

"smartctl -l selftest / dev / sda"

No meu caso, isso retornou algo como isto:

=== INÍCIO DE LEITURA SECÇÃO DE DADOS INTELIGENTE ===
número da revisão da estrutura de log de autoteste SMART 1
Num Test_Description Status Tempo restante da vida útil (horas) LBA_of_first_error
1 Estendido off-line concluído: falha de leitura 90% 7564 27134728
2 Off- line curto concluído: falha de leitura 90% 7467 1408449701

Eu tive que inicializar uma distribuição ao vivo e copiar manualmente os dados do disco defeituoso para o novo (atualmente "sobressalente").


Aha! Não pensei em suspeitar da unidade ativa por erros de E / S. Por algum motivo, o SMART não é suportado nesses HDDs. Este e possíveis erros de E / S em dois novos HDDs? Acho que fiz uma compra ruim ... Enfim, estou adotando procedimentos de recuperação de dados agora no HDD que sei que é bom. Vou atualizar em breve.
Deltik

+50 representantes para você PB . Ninguém foi capaz de responder minhas perguntas corretamente, mas imaginei que, em vez de desperdiçar 50 pontos de reputação em nada, eu os daria a você como um presente de boas-vindas. Bem-vindo ao Stack Exchange!
Deltik

3

Eu tinha exatamente o mesmo problema e sempre pensei que meu segundo disco, que eu queria adicionar novamente à matriz, apresentava erros. Mas era meu disco original tinha lido erros.

Você pode verificar smartctl -t short /dev/sdXe ver os resultados alguns minutos depois com smartctl -l selftest /dev/sdX. Para mim, parecia assim:

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       20%     25151         734566647

Eu tentei consertá-los com este manual . Foi divertido :-). Eu sei que você verificou os dois discos quanto a erros, mas acho que o seu problema é que o disco que ainda está na matriz md tem erros de leitura, portanto, a adição de um segundo disco falha.

Atualizar

Você deve executar adicionalmente a smartctl -a /dev/sdX Se você vir Current_Pending_Sector> 0 algo está errado

197 Current_Pending_Sector 0x0012 098 098 000 Old_age Always - 69

Para mim, foi definitivamente o problema de remover um disco do ataque apenas para teste e ressincronização não pôde ser solucionado devido a falhas de leitura. A sincronização foi interrompida na metade do caminho. Quando verifiquei meu disco, que ainda estava na matriz de ataques, o smartctl relatou problemas.

Eu poderia corrigi-los com o manual acima e vi o número de setores pendentes reduzido. Mas havia muitos e é um procedimento longo e chato, então usei meu backup e restaurei os dados em um servidor diferente.

Como você não teve a oportunidade de usar o SMART, acho que seu autoteste não apareceu nos setores defeituosos.

Para mim, é uma lição aprendida: verifique seus discos antes de remover um da sua matriz.


Quando você respondeu, a matriz RAID 1 deixou de existir e as duas unidades foram encontradas sem erros de E / S. Você pode verificar se sua resposta é aplicável?
Deltik

Finalmente aceito. Esta resposta é a mais provável para ajudar futuros visitantes. Eu desisti do RAID em geral. Não é como se eu tivesse um datacenter.
Deltik 9/09/12

Essa não é mais a resposta aceita, mas ainda é uma boa resposta e pode ajudar outra pessoa. Essa resposta é o mais aplicável a mim, mas esta resposta é provavelmente o mais aplicável a outras pessoas. Além disso, retiro o que disse sobre RAID neste comentário .
Deltik 19/07/2015

3

Eu tive um problema semelhante e o corrigi aumentando a quantidade de discos RAID de 1 para 2.

mdadm --grow --raid-devices=2 /dev/md1

3

ATUALIZAÇÃO (24 de maio de 2015): Após três anos, investiguei a verdadeira causa da degradação da matriz RAID 1.

tl; dr: Uma das unidades estava com defeito e eu não percebi isso porque havia realizado apenas um teste de superfície completa na boa unidade.

Três anos atrás, não pensei em verificar nenhum registro sobre problemas de E / S. Se eu tivesse pensado em verificar /var/log/syslog, eu teria visto algo assim quando mdadmdesistiu de reconstruir a matriz:

May 24 14:08:32 node51 kernel: [51887.853786] sd 8:0:0:0: [sdi] Unhandled sense code
May 24 14:08:32 node51 kernel: [51887.853794] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853798] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
May 24 14:08:32 node51 kernel: [51887.853802] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853805] Sense Key : Medium Error [current]
May 24 14:08:32 node51 kernel: [51887.853812] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853815] Add. Sense: Unrecovered read error
May 24 14:08:32 node51 kernel: [51887.853819] sd 8:0:0:0: [sdi] CDB:
May 24 14:08:32 node51 kernel: [51887.853822] Read(10): 28 00 00 1b 6e 00 00 00 01 00
May 24 14:08:32 node51 kernel: [51887.853836] end_request: critical medium error, dev sdi, sector 14381056
May 24 14:08:32 node51 kernel: [51887.853849] Buffer I/O error on device sdi, logical block 1797632

Para obter essa saída no log, procurei o primeiro LBA problemático (14381058, no meu caso) com este comando:

root@node51 [~]# dd if=/dev/sdi of=/dev/zero bs=512 count=1 skip=14381058
dd: error reading ‘/dev/sdi’: Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 7.49287 s, 0.0 kB/s

Não é à toa que mddesistiu! Não é possível reconstruir uma matriz de uma unidade defeituosa.

A nova tecnologia (melhor smartmontoolscompatibilidade de hardware?) Me permitiu obter informações SMART da unidade, incluindo os últimos cinco erros (dos 1393 erros até agora):

root@node51 [~]# smartctl -a /dev/sdi
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Deskstar 5K3000
Device Model:     Hitachi HDS5C3020ALA632
Serial Number:    ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    5940 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun May 24 14:13:35 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: PASSED
Warning: This result is based on an Attribute check.

General SMART Values:
Offline data collection status:  (0x84) Offline data collection activity
                                        was suspended by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (21438) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 358) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   136   136   054    Pre-fail  Offline      -       93
  3 Spin_Up_Time            0x0007   172   172   024    Pre-fail  Always       -       277 (Average 362)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       174
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       8
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   146   146   020    Pre-fail  Offline      -       29
  9 Power_On_Hours          0x0012   097   097   000    Old_age   Always       -       22419
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       161
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       900
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       900
194 Temperature_Celsius     0x0002   127   127   000    Old_age   Always       -       47 (Min/Max 19/60)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       8
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       30
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       2

SMART Error Log Version: 1
ATA Error Count: 1393 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 1393 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:59:34.096  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:59:30.334  READ DMA EXT
  b0 d5 01 09 4f c2 00 00   1d+03:57:59.057  SMART READ LOG
  b0 d5 01 06 4f c2 00 00   1d+03:57:58.766  SMART READ LOG
  b0 d5 01 01 4f c2 00 00   1d+03:57:58.476  SMART READ LOG

Error 1392 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:59:30.334  READ DMA EXT
  b0 d5 01 09 4f c2 00 00   1d+03:57:59.057  SMART READ LOG
  b0 d5 01 06 4f c2 00 00   1d+03:57:58.766  SMART READ LOG
  b0 d5 01 01 4f c2 00 00   1d+03:57:58.476  SMART READ LOG
  b0 d5 01 00 4f c2 00 00   1d+03:57:58.475  SMART READ LOG

Error 1391 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:28.228  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:24.549  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT

Error 1390 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:24.549  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT
  25 00 10 f0 70 db 40 00   1d+03:56:06.687  READ DMA EXT

Error 1389 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT
  25 00 10 f0 70 db 40 00   1d+03:56:06.687  READ DMA EXT
  25 00 f0 00 70 db 40 00   1d+03:56:03.026  READ DMA EXT

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       90%     21249         14381058

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Ahh ... isso faria isso.

Agora, resolvi esta questão em três etapas fáceis:

  1. Torne-se um administrador do sistema em três anos.
  2. Verifique os logs.
  3. Volte ao Superusuário e ria da minha abordagem de três anos atrás .

ATUALIZAÇÃO (19 de julho de 2015): para quem está curioso, a unidade finalmente ficou sem setores para remapear:

root@node51 [~]# smartctl -a /dev/sdg
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Deskstar 5K3000
Device Model:     Hitachi HDS5C3020ALA632
Serial Number:    ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    5940 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Jul 19 14:00:33 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.

General SMART Values:
Offline data collection status:  (0x85) Offline data collection activity
                                        was aborted by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      ( 117) The previous self-test completed having
                                        the read element of the test failed.
Total time to complete Offline
data collection:                (21438) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 358) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   099   099   016    Pre-fail  Always       -       2
  2 Throughput_Performance  0x0005   136   136   054    Pre-fail  Offline      -       93
  3 Spin_Up_Time            0x0007   163   163   024    Pre-fail  Always       -       318 (Average 355)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       181
  5 Reallocated_Sector_Ct   0x0033   001   001   005    Pre-fail  Always   FAILING_NOW 1978
  7 Seek_Error_Rate         0x000b   086   086   067    Pre-fail  Always       -       1245192
  8 Seek_Time_Performance   0x0005   146   146   020    Pre-fail  Offline      -       29
  9 Power_On_Hours          0x0012   097   097   000    Old_age   Always       -       23763
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       167
192 Power-Off_Retract_Count 0x0032   092   092   000    Old_age   Always       -       10251
193 Load_Cycle_Count        0x0012   092   092   000    Old_age   Always       -       10251
194 Temperature_Celsius     0x0002   111   111   000    Old_age   Always       -       54 (Min/Max 19/63)
196 Reallocated_Event_Count 0x0032   001   001   000    Old_age   Always       -       2927
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       33
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       2

SMART Error Log Version: 1
ATA Error Count: 2240 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 2240 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 f0 18 0f 2f 00  Error: IDNF 240 sectors at LBA = 0x002f0f18 = 3084056

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 18 0f 2f 40 00      00:25:01.942  WRITE DMA EXT
  35 00 f0 28 0e 2f 40 00      00:25:01.168  WRITE DMA EXT
  35 00 f0 38 0d 2f 40 00      00:25:01.157  WRITE DMA EXT
  35 00 f0 48 0c 2f 40 00      00:25:01.147  WRITE DMA EXT
  35 00 f0 58 0b 2f 40 00      00:25:01.136  WRITE DMA EXT

Error 2239 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 5a 4e f7 2e 00  Error: IDNF 90 sectors at LBA = 0x002ef74e = 3077966

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 b8 f6 2e 40 00      00:24:57.967  WRITE DMA EXT
  35 00 f0 c8 f5 2e 40 00      00:24:57.956  WRITE DMA EXT
  35 00 f0 d8 f4 2e 40 00      00:24:57.945  WRITE DMA EXT
  35 00 f0 e8 f3 2e 40 00      00:24:57.934  WRITE DMA EXT
  35 00 f0 f8 f2 2e 40 00      00:24:57.924  WRITE DMA EXT

Error 2238 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 40 a8 c6 2e 00  Error: IDNF 64 sectors at LBA = 0x002ec6a8 = 3065512

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 f8 c5 2e 40 00      00:24:49.444  WRITE DMA EXT
  35 00 f0 08 c5 2e 40 00      00:24:49.433  WRITE DMA EXT
  35 00 f0 18 c4 2e 40 00      00:24:49.422  WRITE DMA EXT
  35 00 f0 28 c3 2e 40 00      00:24:49.412  WRITE DMA EXT
  35 00 f0 38 c2 2e 40 00      00:24:49.401  WRITE DMA EXT

Error 2237 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 ea be ba 2e 00  Error: IDNF 234 sectors at LBA = 0x002ebabe = 3062462

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 b8 ba 2e 40 00      00:24:39.263  WRITE DMA EXT
  35 00 f0 c8 b9 2e 40 00      00:24:38.885  WRITE DMA EXT
  35 00 f0 d8 b8 2e 40 00      00:24:38.874  WRITE DMA EXT
  35 00 f0 e8 b7 2e 40 00      00:24:38.862  WRITE DMA EXT
  35 00 f0 f8 b6 2e 40 00      00:24:38.852  WRITE DMA EXT

Error 2236 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 86 c2 2a 2e 00  Error: IDNF 134 sectors at LBA = 0x002e2ac2 = 3025602

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 58 2a 2e 40 00      00:24:25.605  WRITE DMA EXT
  35 00 f0 68 29 2e 40 00      00:24:25.594  WRITE DMA EXT
  35 00 f0 78 28 2e 40 00      00:24:25.583  WRITE DMA EXT
  35 00 f0 88 27 2e 40 00      00:24:25.572  WRITE DMA EXT
  35 00 f0 98 26 2e 40 00      00:24:25.561  WRITE DMA EXT

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short captive       Completed: read failure       50%     23763         869280
# 2  Extended offline    Completed without error       00%     22451         -
# 3  Short offline       Completed without error       00%     22439         -
# 4  Extended offline    Completed: read failure       90%     21249         14381058
1 of 2 failed self-tests are outdated by newer successful extended offline self-test # 2

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

1
Sim, exatamente o que aconteceu com o meu RAID! Esta é a resposta real à sua própria pergunta! Obrigado por manter isso atualizado !!!
Preexo

1

No meu caso, também era um disco de origem ruim. Embora parecesse que não era (o / proc / mdstat progrediu acima de 99,9% normalmente - mas na verdade falhou em 99,97%, o que coincidia com o término da sincronização regular). Portanto, você precisa verificar a dmesg(1)saída - ele informará se há algum erro de leitura.

Você pode ver detalhes do meu caso no bug Debian # 767243 . Finalmente consegui terminar a sincronização substituindo forçosamente alguns setores defeituosos no disco de origem (que, por sorte, não foram utilizados no meu caso, caso contrário, haveria perda de dados)


0

Você poderia tentar

sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1

para atualizar as unidades e ressincronizá-las.


Tentando isso agora ... relatarei quando a reconstrução for supostamente concluída.
Deltik

Não funcionou. /dev/sdb1ainda não está se tornando "ativo" depois de reconstruído como sobressalente.
precisa saber é

0

Não tenho certeza se funcionará desde que você já --addeditou o disco, mas --re-addparece ser a opção que você precisa.

Ou talvez você precise --growdo dispositivo para 2 discos ativos mdadm --grow -n 2,? Não testado, tenha cuidado.


sudo mdadm --grow -n 2foi uma das primeiras coisas que fiz, por isso sudo mdadm --detail /dev/md0mostra dois slots. Desculpe, não funciona.
precisa saber é o seguinte

0

Eu recomendaria remover o sdc1, zerar o super bloco no sdc1 e adicioná-lo novamente.

mdadm /dev/md0 -r /dev/sdc1
mdadm --zero-superblock /dev/sdc1
mdadm /dev/md0 -a /dev/sdc1

Troquei meus dados para cada disco rígido enquanto zerava o superbloco no outro disco rígido. O problema que estou enfrentando se repete mesmo com a recriação completa da matriz RAID 1.
Deltik 5/06/12
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.