[linux-l] Bash und History

Frank Lehmann eggsperde at gmx.net
Mo Nov 17 20:11:18 CET 2008


Hi Volker,

>>> Wer zuerst im Netz ist, hat immer einen Vorteil, weil viele andere
>>> auf einen verlinken, weil's nunmal nichts besseres gibt. Eine
>>> ordentliche Doku braucht Zeit, und ist daher nur selten die erste
>>> im Netz. Folglich muss sie sich gegen die erste durchsetzen, aber
>>> wie? Auf obige "Evolution" zu warten erzeugt viel Kollateralschaden.
>>>
>>> Man müsste die ersten Verlinkungen davon überzeugen, lieber auf
>>> die bessere Doku zu zeigen - den Aufwand tut sich keiner an. Also
>>> müsste man die ursprüngliche Doku dazu bewegen, auf die neue zu
>>> zeigen. Oder die ursprüngliche Doku müsste unter freier Lizenz in
>>> einem für jedermann offenen Wiki stehen.
>> Meiner Meinung nach ist das eine (entschuldige bitte) relativ
>> altmodische Herangehensweise. Denk nur mal daran, wie sich die Bedeutung
>> von Bookmarks relativiert hat, seit Suchmaschinenen so effizient
>> geworden sind (bezüglich schlecht finanziell-verwertbarer Themen).
> 
> Ja, genau darauf wollte ich hinaus. Weil viele Seite auf die
> schlechten (anfangs einzigen) Howtos verlinken, landen sie in Google
> ganz oben. Damit eine nachfolgende "gute" Howto damit konkurrieren
> kann, muss sie erst von vielen, vielen neuen Seiten verlinkt werden,
> oder eben einige schlechte ersetzen (Wiki).
> 
> Sicher, Google gewichtet die Links, und hat Pageranks und sowas.
> Aber in der Anfangsphase eines auftretenden Halbwissens ist Google
> nicht viel besser als Reddit. Den berühmten "Reddit-Effekt" durfte
> ich schon mehrfach bei Google-Recherchen erleben. Es kann sehr
> lange dauern, bis die "langsamen", guten Dokus die "schnellen",
> schlechten Doku endlich in der Suchtrefferliste überholt haben.
> 
> Und während dieser ganzen Zeitspanne können die schlechten Dokus,
> also das Halbwissen, einen beträchtlichen Schaden anrichten, weil
> viel zu viele Leute die ersten Suchtreffen für seriöse Seiten halten,
> ohne kritischen Blick, ohne Vergleich mit "richtigen" Quellen.



> Gerade die unverhältnismäßig starke Verbreitung von Halbwissen
> gegenüber gut recherchierten Infos ist ein ernst zu nehmendes
> Problem. Und das schon bei relativ gut verifizierbarem technischen
> Wissen. Wie es mit politischem und gesellschaftlichem Wissen und
> Halbwissen aussieht, kann man nur erahnen.

Aber das liegt doch an den Menschen! Ich habe irgendwie das Gefühl, dass
es einen Man-Page-Gott gibt, den alle Linux-Jünger anbeten müssen. An
dieser Stelle drängt sich auch der immer wieder gern ausgetragene Kampf
GUI vs. CLI auf, der auch von der alten Garde teilweise immer noch bis
aufs Blut ausgefochten wird. Warum ich das gerade hier erwähne? Nun, die
meisten man-pages für grafische Benutzeroberflächen sind prinzipbedingt
 von schlechter Qualität. Der Maßstab sollte doch sein, inwieweit man
dem User das Leben leichter macht, oder? Computer für Menschen und nicht
umgekehrt!
Mit folgendem Vergleich lege ich gleich noch eine Tretmine: Alle
Linux-Distributionen die ich kenne haben hunderte man-pages. Ubuntu auch
- was die Leute aber an dieser Distrie gut finden ist, dass es ein
freundliches Forum gibt in dem ihre Fragen beantwortet werden UND, dass
es soviele Howtos gibt (sagen jedenfalls diverse Polls).

[Ich bin kein besonders großer Fan von Ubuntu, als pragmatischer
Linux-Einstieg habe ich es jedoch schon auf einigen Computern meiner
Freunde installiert. Tja, und wenns mal ein Problem gibt ... finden sie
selbst Hilfe im Internet.]

>> In Bereiche, in die Suchmaschinenoptimierung noch nicht vorgedrungen
>> ist (die Dokumentation freier Betriebssysteme zähle ich dazu),
>> funktionierieren die Evolution oft sehr gut. Wer "man bash" bei Google
>> eingibt kommt nicht auf Seiten, die das letzte mal vor fünf Jahren
>> aktualisiert wurden, sondern findet aktuelle Informationen - die
>> identisch mit denen der bei meinem OS mitgelieferten sind.
> 
> Ja, aber Bash ist auch alt genug, dass sich das eingepegelt hat.
> 
> Nimm mal ein spezielleres Thema wie z.B. Mailserver- und Spamscanner-
> Konfiguration, da sieht die Welt ganz anders aus. Wenn man da nicht
> ständig das Exim- oder Postfix-Manual neben die Howtos legt,
> konfiguriert man sich ganz schnell ein paar Tretmienen in seine
> Server.
Postfix wurde 1998 veröffentlicht, Exim 1995 - da sollten doch die
schlechten Howtos langsam ausgestorben sein. Allerdings kann ich das
bestätigen, dass es gerade in diesem Bereich noch Howtos niedriger
Qualität auf die vorderen Plätze bei Google schaffen. Mein Erklärung
dafür: Die Grundfunktionen der Bash sind schnell einsichtig und leicht
zu erfassen, man kann fast an einem beliebigen Punkt aufhören zu lernen
und trotzdem die Grundfunktionalität nutzen: Programmname eingeben und
Enter drücken. Das reicht für die meisten Studenten an meiner Uni aus
(einer unserer Rechnerpools besteht aus Solaris-Thinclients mit CDE, wo
standardmäßig keine Verknüpfung zu Firefox eingerichtet ist).

Bei MTAs und Spamfiltern muss der Admin aber schon fast die ganze
Funktionalität kennen.

> Suchmaschinen, Wikis & Co. haben einen großartigen Beitrag geleistet,
> dieser Informationsflut Herr zu werden. Aber das reicht eben nicht.
> Gerade im Bereich der Eindämmung von Halbwissen gibt es noch sehr
> viel zu tun. Und bis dahin bleibt einem nichts weiter übrig, als
> _immer_ vorsichtig zu sein, und lieber einen kritischen Blick zu
> viel als zu wenig zu riskieren.

Dem ist nichts hinzuzufügen.

>>> Das nicht, aber viele Howtos im Netz werden einfach unkritisch
>>> befolgt, obwohl sie bestenfalls als roter Faden geeignet sind.
>>>
>>> Kritischer Umgang mit Webseiten und Bevorzugung der Original-
>>> Quellen sind heute wichtiger denn je, daher fand ich Peters
>>> Hinweis sehr gut und richtig.
>> Das ist natürlich richtig. Kritischer Umgang mit Informationen aus dem
>> WWW ist jedoch immer wichtig - ich hatte das vorausgesetzt. Inwieweit
>> das überhaupt möglich ist, wenn man Informationen zu einem Thema sucht,
>> in dem man nicht belesen ist, wäre der klassische Anwendungsfall für
>> zuverlässige Informationen aus man-pages.
> 
> Und da hilft alles nichts: Dann muss man sich halt zu dem Thema belesen.
> Auch wenn es da draußen eine perfekte Howto oder eine fertige Software
> gibt, die das Problem 100%ig löst: Diese zu finden, und als solche zu
> erkennen, und vorallem vom restlichen Müll unterscheiden zu können, das
> ist sauschwer.

Wenn ich diesen Absatz Leuten auf der Straße zeigen und sie fragen würde
welchen Beruf du ausübst, Volker, die Antwort wäre ganz sicher: "Der
macht was mit Computern." Richtig, und deshalb hast du auch die Pflicht
dich umfassend zu informieren, damit du deinen Kunden genau diese Arbeit
abnimmst!

Es ging doch nur um den Abschnitt HISTCONTROL in der Bash, auf meinem
Linuxsystem, auf meinem Rechner. Ich hatte nicht vor mit dem Wissen wie
ich diese Einstellung vornehme irgendwelche Dummheiten zu machen.
Wirklich, die Welt geht nicht unter nur weil ich es praktischer finde
mich mit Hilfe einer Suchmaschine zur Problemlösung zu hangeln als auf
dem "klassischen" Weg.

> 
>> Andererseits: Für die
>> allermeisten Endanwender dürfte das unerheblich sein ("man tetris") -
>> und zu Beginn der Diskussion ging es zunächst um "Anfänger". Das an
>> Administratoren andere Anforderungen gestellt werden ist klar.
> 
> Anfänger ist immer relativ. Man kann auf dem einen Gebiet blutiger
> Anfänger und auf einem anderen Gebiet hochbezahlter Admin sein.
> 
> Davon abgesehen: Gerade Anfänger, die noch auf _jedem_ Gebiet
> Anfänger sind, sind noch nicht oft auf die Nase gefallen. _Gerade_
> bei diesen ist ein Hinweis auf _richtige_ Quellen besonders wichtig.
> Erfahrene Leute werden das auch so schon begriffen haben, auf die
> sanfte oder auf die harte Tour.
> 
>>> JFTR: Das liegt an der Komplexität, nicht am Fehlen des Determinismus.
>>> Gerade die Informatik kann durchaus als deterministisch angesehen werden,
>>> da in der Digitaltechnik nur sehr, sehr selten ein Bit "falsch umkippt".
>>>
>>> Zwar gibt es diese physikalischen Effekte trotzdem, aber sie sind
>>> dermaßen selten, dass praktisch alle heutigen Computerprobleme auf
>>> die Komplexität zurückzuführen sind (Bugs, Irrtümer), und nicht auf
>>> das Fehlen von Determinismus.
>>>
>> So lange Computer als abgeschlossenes System betrachtet werden. Aber
>> schon wenn man sich ansieht wieviel Aufwand mit Prüfsummen und "sicheren
>> Bereichen" auf CDs und DVDs und der Kühlung von CPUs getrieben wird, ist
>> ersichtlich, dass es eben doch nicht sonderlich determiniert ist.
> 
> Das stimmt, aber diese nichtdeterministischen Züge sind gerade _wegen_
> der Digitaltechnik und der Checksummen äußerst selten.
> 
> Es ist jedenfalls nicht der Grund, aus dem jemandens Howto nicht
> funktioniert. Oder willst du mir erzählen, die ganzen fehlerhaften
> Howtos hätten bei ihren Autoren tadellos funktioniert, weil bei denen
> zufällig ein paar geflippte Bits die enthaltenen Fehler wie von
> Geisterhand behoben hatten?

> Oder irgendein freies Linux-Tool, das nicht unter Solaris compiliert.
> Woran mag das liegen? Dass das System so komplex ist, dass der Autor
> ein paar Kleinigkeiten übersehen bzw. einfach nicht gewusst und nicht
> getestet hat? Oder daran, dass in meiner Maschine zufällig ein paar
> Bits geflippt sind und so den Source modifiziert haben?

Guter Vergleich! ("Gut" i.S.v. unterhaltsam). Ich hatte in der anderen
Mail schon geschrieben, dass sich auch mit Computern chaotische Systeme
simulieren lassen können, deren Ergebnisse nicht vorhersagbar sind.
Dieser Seitenarm der Diskussion führt jedoch zu keinen neuen
Erkenntnissen, schätze ich. Trotzdem danke für den Vergleich - ich werde
das bei meinen studierenden Informatikerfreunden bei passender
Gelegenheit anbringen :-)

> Das Fehlen von Determinismus ist beiweitem kein so großes Problem
> wie das der Komplexität. Technisches Halbwissen entsteht nicht
> dadurch, dass man gewisse Fragen nicht beantworten _kann_, sondern
> dadurch, dass die Antworten zu kompliziert sind. Die Antworten sind
> relativ gut verifizierbar, aber viele Leute machen sich die Mühe
> nicht, oder testen/prüfen nur ganz oberflächlich.

Was ist mit "works for me"? Für mich ist das (in privatem Umfeld) das
einzig wirklich wichtige Kriterium.

Du hast mich schon mehrfach auf unterschiedliche Fehler in den
Maileinstellungen für meinen MUA hingewiesen (meine ersten Mails waren
in HTML, die Sache mit dem inline-PGP und noch einiges mehr), wofür ich
dankbar war und auch immer umgesetzt habe. Ich versuche mich an die
Regeln der Netiquette zu halten, wenig Rechtschreibfehler zu machen und
keine Fragen zu stellen, die ich mit ein wenig Aufwand auch selber
beantworten kann. WEIL es um Kommunikation mit anderen Menschen geht.Was
ich auf meinem System mache ist meine Sache. Auch, mit welchen
Informationen ich Probleme löse (wenn ich meinen Computer nicht in eine
Viren- uns Spamschleuder verwandele und so Andere gefährde). Ich gestehe
dir und Peter diese Freiheit zu und erwarte dieses Recht eigentlich auch
für mich.


Einen schönen Abend noch,
Frank


-------------- nächster Teil --------------
Ein Dateianhang mit Binärdaten wurde abgetrennt...
Dateiname   : signature.asc
Dateityp    : application/pgp-signature
Dateigröße  : 197 bytes
Beschreibung: OpenPGP digital signature
URL         : <https://mlists.in-berlin.de/pipermail/linux-l-mlists.in-berlin.de/attachments/20081117/40d6a618/attachment.sig>


Mehr Informationen über die Mailingliste linux-l