6 Stimmen

framework für parallele verarbeitung in java

Ich bin neu in diesem Thema. Ich hatte mich entschlossen, für mein Projekt ein Parallelverarbeitungs-Framework für Cloud-Datenverarbeitungsanwendungen in Java zu entwickeln. Das Framework muss den gegebenen sequenziellen Java-Code aufteilen und diese Untercodes in verschiedenen virtuellen Maschinen in der Cloud verarbeiten. Das Framework muss die Ressourcen entsprechend der Last dynamisch zuweisen und freigeben. Mein Problem ist, wie ich das Framework entwickeln kann.

Gibt es irgendwelche Bibliotheken zur Verfügung, um den Java-Code in verschiedenen virtuellen Maschinen in der Cloud zu planen? bitte informieren Sie mich, wenn etwas verfügbar ist.

4voto

Grooveek Punkte 9951

Terrakotta y Gridgain sind ausgezeichnete Lösungen. Diejenigen, die von yerlikayaoglu (Hadoop und Hazelcast) sind in ihrem Bereich ebenfalls hervorragend, aber sie sind alle sehr unterschiedlich und hängen vom jeweiligen Anwendungsfall ab. Das ist für das map/reduce Problem

Eine andere ist die Zuweisung/Deallokation von virtuellen Maschinen. Das hängt von Ihrem Cloud-Anbieter und einigen anderen Dingen ab. Sie können einen Blick werfen auf jClouds

2voto

yerlikayaoglu Punkte 344

Es gibt Lösungen wie Hazelcast , Hadoop usw. Sie können sich diese Projekte ansehen.

1voto

David Rabinowitz Punkte 28911

Werfen Sie einen Blick auf Hadoop ein Framework, das im Grunde das Gleiche ermöglicht und die automatische Bereitstellung von Code im Cluster unterstützt.

0voto

Mairbek Khadikov Punkte 7629

Wenn Sie eine Echtzeitverarbeitung durchführen möchten, können Sie einen Blick auf Sturm . Auch Akka bietet eine nette Remote-Actor-API für Scala und Java.

CodeJaeger.com

CodeJaeger ist eine Gemeinschaft für Programmierer, die täglich Hilfe erhalten..
Wir haben viele Inhalte, und Sie können auch Ihre eigenen Fragen stellen oder die Fragen anderer Leute lösen.

Powered by:

X