[linux-l] [OT]: keine Limits eingestellt

Peter Ross Peter.Ross at alumni.tu-berlin.de
Di Feb 6 12:00:37 CET 2007


Hi Oliver,

On Tue, 6 Feb 2007, Oliver Bandel wrote:

> On Tue, Feb 06, 2007 at 12:04:23PM +1100, Peter Ross wrote:
> > 
> > Sorry, zu lange her. Irgendetwas mit einem MySQL-Server, der mit "out of 
> > memory" auf die Nase fiel, obwohl die Maschine p;raechtig viel RAM hatte 
> > (auch ungenutzten).
> 
> Das sind dann aberLimits aufgrund der Implementierung und
> keine, die man als Vorgabe eingestellt hat.

Nein, das waren zu enge ulimit-Defaults auf Debian-Maschinen.

> Oder kracht's dann einfach?

Die DB ist dann einfach "abgeraucht".
 
> IMHO muß man den Server unter guter Auslastung mal mit sowas wie
> ps -ax |wc -l
> anschauen, und dann die Limits entsprechend hoch setzen.

Hier redet Du von Prder Zahl von Prozessen.

Um ehrlich zu sein, ich habe immer noch nicht genau raus, was der 2.6er 
Kernel mit Prozess und Thread macht.

Klar ist mir nur, dass es sich erheblich geaendert haben muss. Unter 2.4 
waren Threads alles andere als "leichtgewichtig", die Unterschiede zu 
Prozessen war recht klein.
 
> Wem das als Admin zu viel ist...

Das denke ich eher ueber das eben Gesagte. Eigentlich hoechste Zeit, dass 
ich mich als Admin mehr mit der Problematik beschaeftige.

> > Wie gesagt, eine Maschine, mit einem "Nutzprozess" und ohne "echte" Nutzer 
> > kann das okay sein.
> 
> Die Prozessanzahl-Limits sind User-Limits.
> Und wenn ein User (Datenbank zum Beipiel)
> mehr Ressourcen braucht, muss man das eben entsprechend
> einstellen. Dann bekommt der DB-user eben wesentlich mehr
> Ressourcen.

Das ist schon richtig.

> Stimmt aber auch wiederum nicht, denn wenn die Maschine
> das nicht in endlicher Zeit verarbeiten kann, dann
> bleibt nix als PowerDown,oder wenn noch mit separater Konsole
> möglich, reboot.

BTW: Ich hoffe, das Linux 2.6 inzwischen fair genug ist, mir auch noch ein 
bisschen CPU fuer eine Shell zu geben.. (sollte eigentlich, und bis jetzt 
kann ich da auch nicht drueber klagen, 2.4. war da anders, da konnten sich 
Prozesse bis zum praktischen Stillstand ausbremsen..)

> Würdest Du Coresize-Limits überhaupt setzen (Entwicklung/Produktion)?

Auf einem Firewall mit 360MB Festplatte kann ich nicht unbedingt fette 
Coredumps gebrauchen (ich wette, das iPhone unter Mac OS X ist da aehnlich 
dran)

> Oder andere Limits (Speicher?)?

Habe ich nicht. Auf "Produktionsrechnern" lief eben in der Regel fast nur 
ein Service, und der durfte "alles" haben (das Verhalten des Prozesses 
wurde auch ueberwacht, z.B. meldet mir die genannte JavaVM regelmessig 
ueber Nagios Speicherwerte).

An der Uni, ein Institutsnetz verwaltend, habe ich es auch nicht getan. Da 
ging es oft um Rechnerlaeufe, die ueber ein paar Stunden liefen, und die 
sollten so schnell wie moeglich durch. Technische Begrenzungen waeren da 
eher hinderlich gewesen, da dann in Zeiten der Nutzungsebbe kostbare 
Rechnerpower brachgelegen haette, und zu verhindern, dass jemand 
uebermaessig viel Ressourcen beansprucht, eher ein soziales Problem.

Ueberwacht wurde das schon, und wenn man bemerkte, dass jemand durch 
"Unverschaemtheit" oder Unwissenheit andere behinderte, wurde das bemerkt 
und angesprochen, zumeist reichte eigentlich ein kurzer Hinweis unter vier 
Augen.

Es gruesst
Peter


Mehr Informationen über die Mailingliste linux-l