Angenommen, ich habe eine große SQLite
Datei (z. B. 500[MB]), die in Amazon S3
. Kann ein python
Skript, das auf einem kleinen EC2
Instanz direkt zugreifen und ändern その SQLite
oder muss ich die Datei erst in den Ordner EC2
Instanz, ändern Sie sie dort und kopieren Sie sie dann nach S3
?
Wird die E/A effizient sein?
Ich versuche Folgendes zu tun. Wie ich schrieb, habe ich eine 500[MB] SQLite
Datei in S3
. Ich würde gerne anfangen zu sagen 10 different Amazon EC2 instances
die jeweils eine Teilmenge der Datei lesen und verarbeiten (jede Instanz bearbeitet eine andere Teilmenge der 500[MB] SQLite
Datei). Sobald die Verarbeitung abgeschlossen ist, aktualisiert jede Instanz nur die Teilmenge der Daten, die sie bearbeitet hat (wie erläutert, gibt es keine Überschneidung von Daten zwischen Prozessen).
Nehmen wir zum Beispiel an, dass die SQLite
Datei hat Aussage 1M Zeilen :
instance 1
wird mit Zeilen umgehen (und diese aktualisieren) 0 - 100000
instance 2
wird mit Zeilen umgehen (und diese aktualisieren) 100001 - 200000
.........................
instance 10
wird mit Zeilen umgehen (und diese aktualisieren) 900001 - 1000000
Ist das überhaupt möglich? Klingt es gut? Vorschläge und Ideen sind willkommen.