Meu comando para clonar uma unidade é ideal?


16

Eu li meia hora lendo para me preparar para clonar meu disco rígido. Possui várias partições, incluindo uma partição do Windows. Vou comprar um disco rígido externo muito grande para o backup. Eu gostaria de poder usar esse clone para restaurar toda a unidade, caso algo dê errado (estou prestes a fazer uma reorganização do SO). Quero aprender como fazer isso usando o dd, pois gosto de ferramentas de baixo nível que não exigem a instalação de nada.

Encontrei o seguinte código útil nos fóruns do ubuntu (digitados a partir de um shell raiz usando um CD ao vivo):

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

(Eu sei que terei que editar os locais de entrada e saída.) No entanto, tenho duas perguntas. O primeiro é muito noobie: esse comando é dividido em duas linhas. Certamente, quando eu pressionar enter após o ponto de exclamação, ele iniciará o processo?

Segundo, em outros sites, recomenda-se inserir o tamanho do bloco. Como isso:

# dd if=/dev/hda conv=sync,noerror bs=64K of=/mnt/sda1/hda.img

Não sei nada sobre tamanhos de bloco. 64K está certo? Parece que o tamanho do meu bloco é de 512 bytes, a saída do sudo fdisk -ul:

Disk /dev/sda: 750.2 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders, total 1465149168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xc3ffc3ff

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *          63   143364059    71681998+   7  HPFS/NTFS/exFAT
Partition 1 does not start on physical sector boundary.
/dev/sda2       976867328  1465147391   244140032    7  HPFS/NTFS/exFAT
/dev/sda3       143364094   976867327   416751617    5  Extended
Partition 3 does not start on physical sector boundary.
/dev/sda5       143364096   162895871     9765888   82  Linux swap / Solaris
/dev/sda6       162897920   205864959    21483520   83  Linux
/dev/sda7       205867008   976867327   385500160   83  Linux

Partition table entries are not in disk order

Disk /dev/mapper/cryptswap1: 10.0 GB, 10000269312 bytes
255 heads, 63 sectors/track, 1215 cylinders, total 19531776 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x433bb3a7

Disk /dev/mapper/cryptswap1 doesn't contain a valid partition table

Obrigado.


Você já tentou um simples dd if=/dev/hda of=hdb? Aqui está uma resposta que mostra alguns detalhes, incluindo tempo de execução para 160 GB: askubuntu.com/questions/435694/...
SDsolar

As versões recentes do Ubuntu utilizam coreutils v.8.24 ou mais tarde em que ddinclui um interruptor de progresso como mencionado aqui
Elder Geek

Respostas:


22

Progresso

O comando que você listou

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

é uma ótima linha dupla para obter o progresso ddregularmente. Eu uso um muito semelhante também. Parece bom. Encontrou aqui talvez?

Blocos de tamanhos com dd: alinhamento e desempenho

Você pode adicionar um tamanho de bloco no qual as operações ocorrem. Não importa qual é o tamanho do bloco do dispositivo de bloco subjacente para que a operação seja executada igualmente bem, mas por razões de desempenho, você pode escolher um que atenda às suas necessidades.

Primeiro de tudo, há o alinhamento . Caso seu dispositivo de bloco opere com 512 KB (como as unidades flash), seria muito lamentável executar ddcom bs=512(bytes), pois isso causará 1024 gravações (!) Para cada bloco da perspectiva do dispositivo. Na prática, não será tão ruim assim, pois as gravações são armazenadas em buffer e levadas de uma só vez, mas durante as sincronizações ainda é possível amplificar bastante a quantidade de gravações.

Considere também a sobrecarga simples de uso da CPU ao lidar com uma quantidade muito grande de pequenas operações. É apenas mais eficiente consumir megabytes de uma só vez ao copiar grandes quantidades de dados.

Minha prática recomendada é começar com 1 MB, já que é uma boa variedade da maioria das configurações, incluindo tamanhos de faixa RAID, tamanhos de extensão LVM etc. No meu laptop com SSD, costumo ver uma leve melhora usando 10 MB como tamanho de bloco, enquanto eu não vejo mais isso no meu disco rígido físico.

Último bloco

Não se preocupe com o tamanho da unidade / volume não ser múltiplo do tamanho do bloco. O último bloco ddcopiado será ajustado para corresponder ao último bit de dados nele. Você pode ver se o último bloco tinha um tamanho diferente, observando a saída.

18335302+0 records out

O +0meio que era uma correspondência exata, o +1meio que não era. Nada demais.

Veja também


11
Uau, que resposta completa. Muito obrigado por reservar um tempo para fazê-lo. Atualizarei a pergunta original com um link para minha fonte. Eu irei com 1 MB então. Então meu comando será assim, estou certo? # dd if=/dev/hda conv=sync,noerror bs=1MB of=/mnt/sda1/hda.img & pid=$! while kill -USR1 $pid; do sleep 1; done
Kit Johnson

2
@oldmankit Eu faria o bs=1Mque é uma potência de 2, em vez de bs=1MBser uma potência de 10. Mas basta executar alguns benchmarks no seu sistema se você puder ver o que é melhor.
precisa saber é o seguinte

4
Observe que, conforme mencionado aqui desde o lançamento do coreutils> = 8.24 (padrão no Ubuntu Xenial 16.04 para cima), não é mais necessário que o kill -USR1 $piddd agora tenha um relatório de progresso disponível adicionando a status=progressopção
Elder Geek

10

Como outros já disseram, não há tamanho de bloco universalmente correto; o que é ideal para uma situação ou uma peça de hardware pode ser terrivelmente ineficiente para outra. Além disso, dependendo da integridade dos discos, pode ser preferível usar um tamanho de bloco diferente do que é "ideal".

Uma coisa que é bastante confiável no hardware moderno é que o tamanho padrão do bloco de 512 bytes tende a ser quase uma ordem de magnitude mais lenta que uma alternativa mais ideal. Na dúvida, descobri que 64K é um padrão moderno bastante sólido. Embora 64K geralmente não seja o tamanho ideal de bloco, na minha experiência, ele tende a ser muito mais eficiente que o padrão. O 64K também tem um histórico bastante sólido de desempenho confiável: Você pode encontrar uma mensagem na lista de discussão Eug-Lug , por volta de 2002, recomendando um tamanho de bloco de 64K.

Para determinar o tamanho ideal do bloco de saída, escrevi o seguinte script que testa a gravação de um arquivo de teste de 128M com dd em vários tamanhos de bloco, do padrão de 512 bytes a um máximo de 64M. Esteja avisado, este script usa dd internamente, portanto, use com cuidado.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Ver no GitHub

Eu testei esse script apenas em um sistema Debian (Ubuntu) e no OSX Yosemite, portanto, provavelmente será necessário algum ajuste para fazer funcionar outros tipos de Unix.

Por padrão, o comando criará um arquivo de teste nomeado dd_obs_testfileno diretório atual. Como alternativa, você pode fornecer um caminho para um arquivo de teste personalizado, fornecendo um caminho após o nome do script:

$ ./dd_obs_test.sh /path/to/disk/test_file

A saída do script é uma lista dos tamanhos de bloco testados e suas respectivas taxas de transferência da seguinte forma:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Nota: a unidade das taxas de transferência variará de acordo com o sistema operacional)

Para testar o tamanho ideal do bloco de leitura, você pode usar mais ou menos o mesmo processo, mas em vez de ler /dev/zeroe gravar no disco, você deve ler e gravar no disco /dev/null. Um script para fazer isso pode ser assim:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Ver no GitHub

Uma diferença importante nesse caso é que o arquivo de teste é um arquivo gravado pelo script. Não aponte este comando para um arquivo existente ou o arquivo existente será substituído por dados aleatórios!

Para meu hardware em particular, descobri que 128K era o tamanho de bloco de entrada mais ideal em um HDD e 32K era o melhor em um SSD.

Embora essa resposta cubra a maioria das minhas descobertas, eu precisei determinar um tamanho ideal de bloco dd o suficiente para escrever um post sobre isso. Você pode encontrar mais detalhes sobre os testes que realizei lá.

Esta publicação do StackOverflow também pode ser útil: dd: Como calcular o tamanho ideal do bloco?


Ensine um homem a pescar = +1
HackSlash 15/02

@ tdg5 Este é um ótimo script, mas é executado com erros fatais quando executado no Cygwin em um ambiente Windows 7. Existe uma versão que funcione no Cygwin?
Hashim 31/03
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.