Aktualisierung 2020 etwa 11 Jahre, nachdem die Frage gestellt und später geschlossen wurde, was neuere Antworten verhindert.
Fast alles, was hier steht, ist veraltet. Es gab einmal eine Zeit, da war Sqlite auf die Speicherkapazität oder auf 2 GB Speicherplatz (32 Bit) oder andere populäre Zahlen beschränkt... nun, das ist lange her.
Offizielle Einschränkungen sind hier aufgeführt . Praktisch wird sqlite wahrscheinlich funktionieren, solange Speicherplatz vorhanden ist . Es funktioniert gut mit Datensätzen, die größer als der Speicher sind. Es wurde ursprünglich erstellt, als der Speicher noch knapp war, und war von Anfang an ein sehr wichtiger Punkt.
Es ist absolut kein Problem, 100 GB an Daten zu speichern. Wahrscheinlich könnte man auch ein TB speichern, aber irgendwann ist der Punkt erreicht, an dem man sich fragen muss, ob SQLite das beste Werkzeug für diese Aufgabe ist, und man möchte wahrscheinlich die Funktionen einer vollwertigen Datenbank (Remote-Clients, gleichzeitige Schreibvorgänge, schreibgeschützte Replikate, Sharding usw.).
Original:
Ich weiß, dass Sqlite mit extrem großen Datenbankdateien nicht gut zurechtkommt, selbst wenn sie unterstützt werden (auf der Sqlite-Website gab es einmal einen Kommentar, der besagte, dass man bei Dateigrößen über 1 GB die Verwendung eines Unternehmens-RDBs in Betracht ziehen sollte. Ich kann ihn nicht mehr finden, vielleicht bezieht er sich auf eine ältere Version von sqlite).
Für meine Zwecke möchte ich jedoch erst eine Vorstellung davon bekommen, wie schlimm es wirklich ist, bevor ich andere Lösungen in Betracht ziehe.
Ich spreche von Sqlite-Datendateien im Multi-Gigabyte-Bereich, ab 2 GB aufwärts. Hat jemand Erfahrung damit? Irgendwelche Tipps/Ideen?