como mover dados de elasticsearch de um servidor para outro


94

Como faço para mover os dados do Elasticsearch de um servidor para outro?

Eu tenho o servidor A executando Elasticsearch 1.1.1 em um nó local com vários índices. Eu gostaria de copiar esses dados para o servidor B executando Elasticsearch 1.3.4

Procedimento até agora

  1. Desligue o ES em ambos os servidores e
  2. scp todos os dados para o diretório de dados correto no novo servidor. (os dados parecem estar localizados em / var / lib / elasticsearch / em minhas caixas debian)
  3. alterar permissões e propriedade para elasticsearch: elasticsearch
  4. inicie o novo servidor ES

Quando eu olho para o cluster com o plugin ES head, nenhum índice aparece.

Parece que os dados não foram carregados. Estou esquecendo de algo?


2
Por dados, se você quer dizer índices, pode simplesmente mover a pasta de índices dentro da pasta elasticsearch / data / <clustername> / nodes / <node id> para o novo local correspondente. Esta é a estrutura de diretório do elasticsearch no Windows. Não tenho certeza se é o mesmo no Debian. Mas a ideia é que você pode mover diretórios de índice diretamente de um cluster para outro, supondo que a compatibilidade não seja quebrada.
bittusarkar

1
Tem certeza de que ES 1.1.1 e ES 1.3.4 usam a mesma versão lucene? Isso pode causar um problema de compatibilidade. Além disso, não há garantia de que os metadados ES serão os mesmos. Eu sugeriria fazer a cópia programaticamente. Primeiro copie os esquemas de índice e depois importe os dados.
Zouzias

Respostas:


125

A resposta selecionada faz com que pareça um pouco mais complexo do que realmente é, o que você precisa a seguir (instale primeiro o npm em seu sistema).

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

Você pode ignorar o primeiro comando elasticdump para as cópias subsequentes se os mapeamentos permanecerem constantes.

Acabei de fazer uma migração de AWS para Qbox.io com o acima sem problemas.

Mais detalhes em:

https://www.npmjs.com/package/elasticdump

Página de ajuda (a partir de fevereiro de 2016) incluída para integridade:

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`

Eu tentei fazer isso, mas sempre recebo um "Erro emitido => conectar ECONNREFUSADO".
Vagabundo de

4
como aplicar autenticação básica?
Mohd Shahid

Cuidado, ele ainda não é compatível com Elasticsearch
Ortomala Lokni

@OrtomalaLokni parece que o suporte para 5.x agora está em: github.com/taskrabbit/elasticsearch-dump/pull/268
Beau

Eu configurei a autenticação para elasticsearch. Você pode me dizer como passar o nome de usuário e a senha no comando junto com o local de entrada e saída?
The Gr8 Adakron

42

Use ElasticDump

1) yum install epel-release

2) yum install nodejs

3) yum install npm

4) npm instalar elasticdump

5) cd node_modules / elasticdump / bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data

É quando os dados precisam ser transferidos de um local para outro, mas no mesmo servidor. E se os dados precisarem ser transferidos para dois locais de servidor diferentes com dois endereços IP diferentes?
Vagabundo

2
@tramp são 2 endereços IP diferentes
de Raad,

1
Cuidado, ele ainda não é compatível com Elasticsearch
Ortomala Lokni

2
Parece que o Elasticsearch 5 agora é compatível github.com/taskrabbit/elasticsearch-dump/pull/268
hayduke


6

Tentei no Ubuntu mover dados de ELK 2.4.3 para ELK 5.1.1

A seguir estão as etapas

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

no diretório inicial, vá para

$ cd node_modules/elasticdump/

execute o comando

Se precisar de autenticação http básica, você pode usá-la assim:

--input=http://name:password@localhost:9200/my_index

Copie um índice da produção:

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index"  --type=data

Isso é bom. Apenas certifique-se de executar sudo apt-get install -y software-properties-commonantes de add-apt-repository
Sahas

espero que mereça +1
Akshay Patil

5

Também existe a _reindexopção

Da documentação:

Por meio da API de reindexação do Elasticsearch, disponível na versão 5.xe posterior, você pode conectar sua nova implantação do Elasticsearch Service remotamente ao antigo cluster do Elasticsearch. Isso extrai os dados do seu cluster antigo e os indexa no novo. Reindexar essencialmente reconstrói o índice do zero e pode exigir mais recursos para ser executado.

POST _reindex
{
  "source": {
    "remote": {
      "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
      "username": "USER",
      "password": "PASSWORD"
    },
    "index": "INDEX_NAME",
    "query": {
      "match_all": {}
    }
  },
  "dest": {
    "index": "INDEX_NAME"
  }
}

4

Se você puder adicionar o segundo servidor ao cluster, poderá fazer o seguinte:

  1. Adicione o Servidor B ao cluster com o Servidor A
  2. Incrementar o número de réplicas para índices
  3. ES irá copiar índices automaticamente para o servidor B
  4. Fechar servidor A
  5. Diminuir o número de réplicas para índices

Isso só funcionará se o número de substituições for igual ao número de nós.


3
Acredito que isso não funcionará quando as versões forem diferentes (como é o caso da pergunta da OP)
WoJ

Certo. Agora estou trabalhando na migração de meus dados para ESv5 de ESv1.7. Minha opção não funcionará para ele, pois muitas coisas mudaram nos mapeamentos.
AndreyP de

3

Se alguém encontrar o mesmo problema, ao tentar despejar de elasticsearch <2.0 para> 2.0, você precisará fazer:

elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"

1

Sempre tive sucesso simplesmente copiando o diretório / pasta de índice para o novo servidor e reiniciando-o. Você encontrará a id do índice fazendo GET /_cat/indicese a pasta correspondente a esta id está em data\nodes\0\indices(geralmente dentro da pasta elasticsearch, a menos que você a tenha movido).


1

Podemos usar elasticdumpou multielasticdumpfazer o backup e restaurá-lo. Podemos mover dados de um servidor / cluster para outro servidor / cluster.

Encontre uma resposta detalhada que forneci aqui .


0

Se você simplesmente precisa transferir dados de um servidor elasticsearch para outro, também pode usar elasticsearch-document-transfer .

Passos:

  1. Abra um diretório em seu terminal e execute
    $ npm install elasticsearch-document-transfer.
  2. Crie um arquivo config.js
  3. Adicione os detalhes de conexão de ambos os servidores elasticsearch em config.js
  4. Defina os valores apropriados em options.js
  5. Executar no terminal
    $ node index.js

0

Você pode obter um instantâneo do status completo do seu cluster (incluindo todos os índices de dados) e restaurá-los (usando a API de restauração) no novo cluster ou servidor.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.