Ihre Frage ist zu weit gefasst und sehr schwer zu beantworten. Außerdem ist nur ein kleiner Prozentsatz der Algorithmen (diejenigen, die ohne viel gemeinsamen Zustand auskommen) mit GPUs machbar.
Aber ich möchte Sie auffordern, Behauptungen kritisch zu betrachten. Ich bin in der Bildverarbeitung tätig und habe viele Artikel zu diesem Thema gelesen, aber im Falle der GPU beträgt die Zeit für das Hochladen der Eingabedaten in die GPU und das Herunterladen der Ergebnisse zurück in den Hauptspeicher häufig no in die Berechnung des Faktors einfließen.
Es gibt zwar einige wenige Fälle, in denen dies keine Rolle spielt (beide sind klein oder es gibt eine zweite Berechnungsstufe, die das Ergebnis weiter verkleinert), aber in der Regel muss man die Ergebnisse und die Ausgangsdaten übertragen.
Ich habe erlebt, dass sich dadurch ein behauptetes Plus in ein Minus verwandelt hat, weil allein die Upload-/Download-Zeit länger war, als die Haupt-CPU für die Berechnung benötigt hätte.
Das Gleiche gilt für die Kombination von Ergebnissen verschiedener GPU-Karten.
Update Neuere Grafikprozessoren scheinen in der Lage zu sein, mit Hilfe von Ping-Pong-Puffern gleichzeitig hoch- und herunterzuladen und zu rechnen. Der Ratschlag, die Randbedingungen gründlich zu prüfen, gilt jedoch nach wie vor. Es gibt eine Menge Spin da draußen.
Aktualisierung 2 Die Verwendung einer GPU, die mit der Videoausgabe geteilt wird, ist oft nicht optimal. Erwägen Sie z. B. den Einbau einer Low-Budget-Karte für Video und die Verwendung der Onboard-Grafikkarte für GPGPU-Aufgaben.