3 Stimmen

Was verursacht beim Benchmarking eine Verzögerung zwischen der CPU-Zeit und der "verstrichenen Echtzeit"?

Ich verwende ein eingebautes Benchmarking-Modul für einige schnelle und schmutzige Tests. Es gibt mir:

  • CPU-Zeit
  • System-CPU-Zeit (eigentlich erhalte ich bei dem von mir ausgeführten Code nie ein Ergebnis)
  • die Summe der Benutzer- und System-CPU-Zeiten (in meinem Fall immer gleich der CPU-Zeit)
  • die verstrichene reale Zeit

Ich wusste nicht einmal, dass ich all diese Informationen benötige.

Ich möchte nur zwei Codestücke vergleichen und sehen, welches länger dauert. Ich weiß, dass ein Teil des Codes wahrscheinlich mehr Garbage Collection als der andere, aber ich bin nicht sicher, wie viel von einer Auswirkung es haben wird.

Haben Sie eine Idee, auf welche Messgröße ich achten sollte?

Und, was am wichtigsten ist, könnte jemand erklären, warum die "verstrichene Echtzeit" immer länger ist als die CPU-Zeit - was verursacht die Verzögerung zwischen den beiden?

CodeJaeger.com

CodeJaeger ist eine Gemeinschaft für Programmierer, die täglich Hilfe erhalten..
Wir haben viele Inhalte, und Sie können auch Ihre eigenen Fragen stellen oder die Fragen anderer Leute lösen.

Powered by:

X