Ich brauche eine Möglichkeit, Key-Value-Lookups über (potenziell) Hunderte von GB an Daten durchzuführen. Idealerweise etwas, das auf einer verteilten Hashtabelle basiert, die gut mit Java funktioniert. Es sollte fehlertolerant sein, und Open Source.
Der Speicher sollte beständig sein, würde aber idealerweise Daten im Speicher zwischenspeichern, um den Vorgang zu beschleunigen.
Es sollte in der Lage sein, gleichzeitige Lese- und Schreibvorgänge von mehreren Rechnern aus zu unterstützen (Lesevorgänge werden allerdings 100 Mal häufiger vorkommen). Der Zweck besteht im Wesentlichen darin, eine schnelle erste Abfrage von Benutzer-Metadaten für einen Webdienst durchzuführen.
Kann jemand etwas empfehlen?
0 Stimmen
Wofür wollen Sie optimieren? Zum Beispiel Lesedurchsatz (gleichzeitige Lesevorgänge von mehreren Rechnern), Fehlertoleranz angesichts nicht verfügbarer Rechner, geringe Anzahl von Rechnern... Benötigen Sie auch Schreibzugriffe?
0 Stimmen
Danke, ich habe die Frage mit diesen Informationen geändert.
0 Stimmen
Wie wollen Sie Ihre Daten verteilen? Sollen alle Daten an/auf/von jedem Knoten verfügbar sein oder nicht? Im ersten Fall lautet die nächste Frage: "Warum die verteilte Suche?".