Jochen-of-Borg
Member
Hallo!
Obwohl ich schon länger mit Linux unterwegs bin, hab ich eine Sache noch immer nicht ganz verstanden. Und zwar die Sache mit dem "Load-Average"!
Wikipedia meint: Der Load Average (frei übersetzt "Durchschnittsbelastung") ist per Definition die (durchschnittliche) Länge der Run Queue der CPU sowie die Anzahl der Prozesse, die auf diesem laufen oder auf IO warten (Status "D").
Dann interpretier mir doch bitte mal jemand meine Top-Ausgabe hier:
Ich hab hier gerade mal 4 Prozesse mit Run-Status, und 0% mit Waiting. Aber wie komme ich damit auf einen Load von 85?
Sollte der Load-Wert hier nicht eher in der Größenordnung 4-5 sein?
(Und das ist noch nicht mal ein Extremebeispiel. Ich hatte auch schon einen Load-Average von über 120... Als Erklärung, ich hab hier ein Java-Programm mit vielen Threads und einem Nicewert von 10 am laufen. Dadurch ist das System noch relativ gut bedienbar, wenn auch leicht träge... Mit anderen Programmen geht ja schon bei einem Load von 5 fast nichts mehr.)
Obwohl ich schon länger mit Linux unterwegs bin, hab ich eine Sache noch immer nicht ganz verstanden. Und zwar die Sache mit dem "Load-Average"!
Wikipedia meint: Der Load Average (frei übersetzt "Durchschnittsbelastung") ist per Definition die (durchschnittliche) Länge der Run Queue der CPU sowie die Anzahl der Prozesse, die auf diesem laufen oder auf IO warten (Status "D").
Dann interpretier mir doch bitte mal jemand meine Top-Ausgabe hier:
Ich hab hier gerade mal 4 Prozesse mit Run-Status, und 0% mit Waiting. Aber wie komme ich damit auf einen Load von 85?
Sollte der Load-Wert hier nicht eher in der Größenordnung 4-5 sein?
(Und das ist noch nicht mal ein Extremebeispiel. Ich hatte auch schon einen Load-Average von über 120... Als Erklärung, ich hab hier ein Java-Programm mit vielen Threads und einem Nicewert von 10 am laufen. Dadurch ist das System noch relativ gut bedienbar, wenn auch leicht träge... Mit anderen Programmen geht ja schon bei einem Load von 5 fast nichts mehr.)