10 Stimmen

Wie lassen sich große Datenmengen am besten mit der ganzen Welt synchronisieren?

Ich habe eine große Menge an Daten, die ich über 4 oder 5 Standorte auf der ganzen Welt synchronisieren muss, etwa ein halbes Terabyte an jedem Standort. Täglich kommen etwa 1,4 Gigabyte hinzu oder ändern sich, und die Daten können sich an jedem der vier Standorte ändern.

Ein großer Prozentsatz (30 %) der Daten sind doppelte Pakete (vielleicht gepackte JDKs), so dass die Lösung eine Möglichkeit beinhalten müsste, die Tatsache zu erkennen, dass solche Dinge auf dem lokalen Rechner herumliegen und sie zu holen, anstatt sie von einer anderen Website herunterzuladen.

Die Kontrolle der Versionierung ist kein Thema, da es sich nicht um eine Codebasis an sich handelt.

Ich bin nur daran interessiert, ob es irgendwelche Lösungen gibt (vorzugsweise Open-Source), die einer solchen Sache nahe kommen?

Mein kleines Skript mit rsync reicht nicht mehr aus, ich möchte eine komplexere, intelligente Synchronisierung durchführen.

Danke

Bearbeiten : Dies sollte UNIX-basiert sein :)

0voto

Alexander Punkte 8932

Haben Sie schon die detect-renamed Patch für rsync ( http://samba.anu.edu.au/ftp/rsync/dev/patches/detect-renamed.diff )? Ich habe es nicht selbst ausprobiert, aber ich frage mich, ob es nicht nur umbenannte, sondern auch doppelte Dateien erkennt. Wenn es doppelte Dateien nicht erkennt, könnte es möglich sein, den Patch so zu ändern, dass er dies tut.

CodeJaeger.com

CodeJaeger ist eine Gemeinschaft für Programmierer, die täglich Hilfe erhalten..
Wir haben viele Inhalte, und Sie können auch Ihre eigenen Fragen stellen oder die Fragen anderer Leute lösen.

Powered by:

X