[linux-l] Statusbericht: nach Kernelupdate sieht top-Ausgabe merkwürdig!
Shahram
kaeidi at gmx.de
Fr Mai 23 12:45:52 CEST 2003
Hallo Liste,
also ich habe Redhat 7.3 neu installirt und so sieht die top Ausgabe aus:
( Alles Standardsoftware, procps-2.0.7-12 )
..................................................>
6:51pm up 3 min, 1 user, load average: 0,07, 0,08, 0,03
37 processes: 35 sleeping, 2 running, 0 zombie, 0 stopped
CPU states: 0,0% user, 0,0% system, 0,0% nice, 100,0% idle
Mem: 125564K av, 54904K used, 70660K free, 0K shrd, 4344K
buff
Swap: 257000K av, 0K used, 257000K free 41076K
cached
PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME COMMAND
1 root 15 0 476 476 420 S 0,0 0,3 0:04 init
2 root 15 0 0 0 0 SW 0,0 0,0 0:00 keventd
3 root 15 0 0 0 0 SW 0,0 0,0 0:00 kapmd
4 root 34 19 0 0 0 SWN 0,0 0,0 0:00 ksoftirqd_CPU0
5 root 15 0 0 0 0 SW 0,0 0,0 0:00 kswapd
6 root 25 0 0 0 0 SW 0,0 0,0 0:00 bdflush
7 root 15 0 0 0 0 SW 0,0 0,0 0:00 kupdated
8 root 25 0 0 0 0 SW 0,0 0,0 0:00 mdrecoveryd
12 root 15 0 0 0 0 SW 0,0 0,0 0:00 kjournald
93 root 16 0 0 0 0 SW 0,0 0,0 0:00 khubd
<..............................................
Ausgabe von top nach Kernelupadte ( 2.4.20-13.7 ) und alle relvante
Software.
( eigentlich alles wurde upgedatet, was auf der Maschine installiert war
und eine Upadte dafür gab, procps-2.0.7-12):
.........Teil 2.........................>
19:47:22 up 6 min, 1 user, load average: 0,00, 0,02, 0,00
36 processes: 34 sleeping, 2 running, 0 zombie, 0 stopped
CPU states: 0,0% user 0,0% system 0,0% nice 0,0% iowait 100,0% idle
Mem: 125300k av, 25264k used, 100036k free, 0k shrd, 3640k
buff
19440k actv, 480k in_d, 148k in_c
Swap: 257000k av, 0k used, 257000k free 13628k
cached
PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME CPU COMMAND
1 root 8 0 484 484 420 S 0,0 0,3 0:04 0 init
2 root 8 0 0 0 0 SW 0,0 0,0 0:00 0 keventd
3 root 9 0 0 0 0 SW 0,0 0,0 0:00 0 kapmd
4 root 19 19 0 0 0 SWN 0,0 0,0 0:00 0
ksoftirqd_CPU0
5 root 9 0 0 0 0 SW 0,0 0,0 0:00 0 kswapd
6 root 9 0 0 0 0 SW 0,0 0,0 0:00 0 kscand
7 root 9 0 0 0 0 SW 0,0 0,0 0:00 0 bdflush
8 root 9 0 0 0 0 SW 0,0 0,0 0:00 0 kupdated
9 root -1 -20 0 0 0 SW< 0,0 0,0 0:00 0
mdrecoveryd
13 root 9 0 0 0 0 SW 0,0 0,0 0:00 0 kjournald
94 root 9 0 0 0 0 SW 0,0 0,0 0:00 0 khubd
<..........................................
Ich habe noch die procps-2.0.11-7.src.rpm selbst auf der Maschien
kompiliert und installiert.
Die Ausgabe sieht wie oben aus ( Teil 2 ).
Auf der Maschine läuft keine Software RAID.
Meine Frage ist, woher kommen die negative Werte für PRI und NI bei
mdrecoveryd.
Und was bedeuten sie.
Gruß Shahram
Mehr Informationen über die Mailingliste linux-l