Comment déplacer les données Elasticsearch d'un serveur à un autre?
J'ai un serveur Un Elasticsearch 1.1.1 en cours d'exécution sur un nœud local avec plusieurs index .. Je voudrais copier ces données sur un serveur B sous Elasticsearch 1.3.4
Procédure à ce jour
Quand je regarde le cluster avec le plugin principal ES, aucun index n'apparaît.
Il semble que les données ne sont pas chargées. Est-ce que je manque quelque chose?
La réponse sélectionnée rend le son légèrement plus complexe qu’il n’est, voici ce dont vous avez besoin (installez d’abord npm sur votre système).
npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data
Vous pouvez ignorer la première commandeasticdump pour les copies suivantes si les mappages restent constants.
Je viens de faire une migration d'AWS vers Qbox.io avec ce qui précède sans aucun problème.
Plus de détails sur:
https://www.npmjs.com/package/elasticdump
Page d'aide (à partir de février 2016) incluse pour plus de détails:
elasticdump: Import and export tools for elasticsearch
Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]
--input
Source location (required)
--input-index
Source index and type
(default: all, example: index/type)
--output
Destination location (required)
--output-index
Destination index and type
(default: all, example: index/type)
--limit
How many objects to move in bulk per operation
limit is approximate for file streams
(default: 100)
--debug
Display the elasticsearch commands being used
(default: false)
--type
What are we exporting?
(default: data, options: [data, mapping])
--delete
Delete documents one-by-one from the input as they are
moved. Will not delete the source index
(default: false)
--searchBody
Preform a partial extract based on search results
(when ES is the input,
(default: '{"query": { "match_all": {} } }'))
--sourceOnly
Output only the json contained within the document _source
Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
sourceOnly: {SOURCE}
(default: false)
--all
Load/store documents from ALL indexes
(default: false)
--bulk
Leverage elasticsearch Bulk API when writing documents
(default: false)
--ignore-errors
Will continue the read/write loop on write error
(default: false)
--scrollTime
Time the nodes will hold the requested search in order.
(default: 10m)
--maxSockets
How many simultaneous HTTP requests can we process make?
(default:
5 [node <= v0.10.x] /
Infinity [node >= v0.11.x] )
--bulk-mode
The mode can be index, delete or update.
'index': Add or replace documents on the destination index.
'delete': Delete documents on destination index.
'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
(default: index)
--bulk-use-output-index-name
Force use of destination index name (the actual output URL)
as destination while bulk writing to ES. Allows
leveraging Bulk API copying data inside the same
elasticsearch instance.
(default: false)
--timeout
Integer containing the number of milliseconds to wait for
a request to respond before aborting the request. Passed
directly to the request library. If used in bulk writing,
it will result in the entire batch not being written.
Mostly used when you don't care too much if you lose some
data when importing but rather have speed.
--skip
Integer containing the number of rows you wish to skip
ahead from the input transport. When importing a large
index, things can go wrong, be it connectivity, crashes,
someone forgetting to `screen`, etc. This allows you
to start the dump again from the last known line written
(as logged by the `offset` in the output). Please be
advised that since no sorting is specified when the
dump is initially created, there's no real way to
guarantee that the skipped rows have already been
written/parsed. This is more of an option for when
you want to get most data as possible in the index
without concern for losing some rows in the process,
similar to the `timeout` option.
--inputTransport
Provide a custom js file to us as the input transport
--outputTransport
Provide a custom js file to us as the output transport
--toLog
When using a custom outputTransport, should log lines
be appended to the output stream?
(default: true, except for `$`)
--help
This page
Examples:
# Copy an index from production to staging with mappings:
elasticdump \
--input=http://production.es.com:9200/my_index \
--output=http://staging.es.com:9200/my_index \
--type=mapping
elasticdump \
--input=http://production.es.com:9200/my_index \
--output=http://staging.es.com:9200/my_index \
--type=data
# Backup index data to a file:
elasticdump \
--input=http://production.es.com:9200/my_index \
--output=/data/my_index_mapping.json \
--type=mapping
elasticdump \
--input=http://production.es.com:9200/my_index \
--output=/data/my_index.json \
--type=data
# Backup and index to a gzip using stdout:
elasticdump \
--input=http://production.es.com:9200/my_index \
--output=$ \
| gzip > /data/my_index.json.gz
# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
--all=true \
--input=http://production-a.es.com:9200/ \
--output=/data/production.json
elasticdump \
--bulk=true \
--input=/data/production.json \
--output=http://production-b.es.com:9200/
# Backup the results of a query to a file
elasticdump \
--input=http://production.es.com:9200/my_index \
--output=query.json \
--searchBody '{"query":{"term":{"username": "admin"}}}'
------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`
Utilisez ElasticDump
1) miam installer epel-release
2) miam installer nodejs
3) miam installer npm
4) npm install elasticdump
5) cd node_modules/elasticdump/bin
6)
./elasticdump \
--input=http://192.168.1.1:9200/original \
--output=http://192.168.1.2:9200/newCopy \
--type=data
Pour cela, vous pouvez utiliser snapshot/restore feature disponible dans Elasticsearch. Une fois que vous avez configuré un magasin d'instantanés basé sur un système de fichiers, vous pouvez le déplacer entre les clusters et le restaurer sur un autre
J'ai essayé sur Ubuntu de déplacer les données d'ELK 2.4.3 vers ELK 5.1.1
Voici les étapes
$ Sudo apt-get update
$ Sudo apt-get install -y python-software-properties python g++ make
$ Sudo add-apt-repository ppa:chris-lea/node.js
$ Sudo apt-get update
$ Sudo apt-get install npm
$ Sudo apt-get install nodejs
$ npm install colors
$ npm install nomnom
$ npm install elasticdump
dans le répertoire personnel goto $ cd node_modules/elasticdump/
exécuter la commande
Si vous avez besoin d'une authentification http de base, vous pouvez l'utiliser comme ceci:
--input=http://name:password@localhost:9200/my_index
Copier un index de la production:
$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index" --type=data
Si vous pouvez ajouter le deuxième serveur au cluster, vous pouvez procéder comme suit:
Cela ne fonctionnera que si le nombre de remplacements est égal au nombre de nœuds.
Si vous avez simplement besoin de transférer des données d’un serveur elasticsearch à un autre, vous pouvez également utiliser elasticsearch-document-transfer .
Pas:
$ npm install elasticsearch-document-transfer.
config.js
config.js
options.js
$ node index.js
Si vous rencontrez le même problème, lorsque vous essayez de passer de elasticsearch <2.0 à> 2.0, vous devez procéder comme suit:
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"
J'ai toujours réussi à copier simplement le répertoire/dossier d'index sur le nouveau serveur et à le redémarrer. Vous trouverez l'identifiant d'index en faisant GET /_cat/indices
et le dossier correspondant à cet identifiant se trouve dans data\nodes\0\indices
(généralement dans votre dossier elasticsearch, sauf si vous l'avez déplacé).