[linux-l] Bash und History

Volker Grabsch vog at notjusthosting.com
Mo Nov 17 03:43:06 CET 2008


Frank Lehmann <eggsperde at gmx.net> schrieb:
> Hi Volker,
> 
> > Wer zuerst im Netz ist, hat immer einen Vorteil, weil viele andere
> > auf einen verlinken, weil's nunmal nichts besseres gibt. Eine
> > ordentliche Doku braucht Zeit, und ist daher nur selten die erste
> > im Netz. Folglich muss sie sich gegen die erste durchsetzen, aber
> > wie? Auf obige "Evolution" zu warten erzeugt viel Kollateralschaden.
> > 
> > Man müsste die ersten Verlinkungen davon überzeugen, lieber auf
> > die bessere Doku zu zeigen - den Aufwand tut sich keiner an. Also
> > müsste man die ursprüngliche Doku dazu bewegen, auf die neue zu
> > zeigen. Oder die ursprüngliche Doku müsste unter freier Lizenz in
> > einem für jedermann offenen Wiki stehen.
>
> Meiner Meinung nach ist das eine (entschuldige bitte) relativ
> altmodische Herangehensweise. Denk nur mal daran, wie sich die Bedeutung
> von Bookmarks relativiert hat, seit Suchmaschinenen so effizient
> geworden sind (bezüglich schlecht finanziell-verwertbarer Themen).

Ja, genau darauf wollte ich hinaus. Weil viele Seite auf die
schlechten (anfangs einzigen) Howtos verlinken, landen sie in Google
ganz oben. Damit eine nachfolgende "gute" Howto damit konkurrieren
kann, muss sie erst von vielen, vielen neuen Seiten verlinkt werden,
oder eben einige schlechte ersetzen (Wiki).

Sicher, Google gewichtet die Links, und hat Pageranks und sowas.
Aber in der Anfangsphase eines auftretenden Halbwissens ist Google
nicht viel besser als Reddit. Den berühmten "Reddit-Effekt" durfte
ich schon mehrfach bei Google-Recherchen erleben. Es kann sehr
lange dauern, bis die "langsamen", guten Dokus die "schnellen",
schlechten Doku endlich in der Suchtrefferliste überholt haben.

Und während dieser ganzen Zeitspanne können die schlechten Dokus,
also das Halbwissen, einen beträchtlichen Schaden anrichten, weil
viel zu viele Leute die ersten Suchtreffen für seriöse Seiten halten,
ohne kritischen Blick, ohne Vergleich mit "richtigen" Quellen.

Gerade die unverhältnismäßig starke Verbreitung von Halbwissen
gegenüber gut recherchierten Infos ist ein ernst zu nehmendes
Problem. Und das schon bei relativ gut verifizierbarem technischen
Wissen. Wie es mit politischem und gesellschaftlichem Wissen und
Halbwissen aussieht, kann man nur erahnen.

> In Bereiche, in die Suchmaschinenoptimierung noch nicht vorgedrungen
> ist (die Dokumentation freier Betriebssysteme zähle ich dazu),
> funktionierieren die Evolution oft sehr gut. Wer "man bash" bei Google
> eingibt kommt nicht auf Seiten, die das letzte mal vor fünf Jahren
> aktualisiert wurden, sondern findet aktuelle Informationen - die
> identisch mit denen der bei meinem OS mitgelieferten sind.

Ja, aber Bash ist auch alt genug, dass sich das eingepegelt hat.

Nimm mal ein spezielleres Thema wie z.B. Mailserver- und Spamscanner-
Konfiguration, da sieht die Welt ganz anders aus. Wenn man da nicht
ständig das Exim- oder Postfix-Manual neben die Howtos legt,
konfiguriert man sich ganz schnell ein paar Tretmienen in seine
Server.

Suchmaschinen, Wikis & Co. haben einen großartigen Beitrag geleistet,
dieser Informationsflut Herr zu werden. Aber das reicht eben nicht.
Gerade im Bereich der Eindämmung von Halbwissen gibt es noch sehr
viel zu tun. Und bis dahin bleibt einem nichts weiter übrig, als
_immer_ vorsichtig zu sein, und lieber einen kritischen Blick zu
viel als zu wenig zu riskieren.

> > Das nicht, aber viele Howtos im Netz werden einfach unkritisch
> > befolgt, obwohl sie bestenfalls als roter Faden geeignet sind.
> > 
> > Kritischer Umgang mit Webseiten und Bevorzugung der Original-
> > Quellen sind heute wichtiger denn je, daher fand ich Peters
> > Hinweis sehr gut und richtig.
> 
> Das ist natürlich richtig. Kritischer Umgang mit Informationen aus dem
> WWW ist jedoch immer wichtig - ich hatte das vorausgesetzt. Inwieweit
> das überhaupt möglich ist, wenn man Informationen zu einem Thema sucht,
> in dem man nicht belesen ist, wäre der klassische Anwendungsfall für
> zuverlässige Informationen aus man-pages.

Und da hilft alles nichts: Dann muss man sich halt zu dem Thema belesen.
Auch wenn es da draußen eine perfekte Howto oder eine fertige Software
gibt, die das Problem 100%ig löst: Diese zu finden, und als solche zu
erkennen, und vorallem vom restlichen Müll unterscheiden zu können, das
ist sauschwer.

Den Weg von der Informations- zur Wissens-Gesellschaft müssen erst noch
beschreiten. Wir sind bestenfalls am Anfang dieser Reise.

> Andererseits: Für die
> allermeisten Endanwender dürfte das unerheblich sein ("man tetris") -
> und zu Beginn der Diskussion ging es zunächst um "Anfänger". Das an
> Administratoren andere Anforderungen gestellt werden ist klar.

Anfänger ist immer relativ. Man kann auf dem einen Gebiet blutiger
Anfänger und auf einem anderen Gebiet hochbezahlter Admin sein.

Davon abgesehen: Gerade Anfänger, die noch auf _jedem_ Gebiet
Anfänger sind, sind noch nicht oft auf die Nase gefallen. _Gerade_
bei diesen ist ein Hinweis auf _richtige_ Quellen besonders wichtig.
Erfahrene Leute werden das auch so schon begriffen haben, auf die
sanfte oder auf die harte Tour.

> > JFTR: Das liegt an der Komplexität, nicht am Fehlen des Determinismus.
> > Gerade die Informatik kann durchaus als deterministisch angesehen werden,
> > da in der Digitaltechnik nur sehr, sehr selten ein Bit "falsch umkippt".
> > 
> > Zwar gibt es diese physikalischen Effekte trotzdem, aber sie sind
> > dermaßen selten, dass praktisch alle heutigen Computerprobleme auf
> > die Komplexität zurückzuführen sind (Bugs, Irrtümer), und nicht auf
> > das Fehlen von Determinismus.
> > 
> So lange Computer als abgeschlossenes System betrachtet werden. Aber
> schon wenn man sich ansieht wieviel Aufwand mit Prüfsummen und "sicheren
> Bereichen" auf CDs und DVDs und der Kühlung von CPUs getrieben wird, ist
> ersichtlich, dass es eben doch nicht sonderlich determiniert ist.

Das stimmt, aber diese nichtdeterministischen Züge sind gerade _wegen_
der Digitaltechnik und der Checksummen äußerst selten.

Es ist jedenfalls nicht der Grund, aus dem jemandens Howto nicht
funktioniert. Oder willst du mir erzählen, die ganzen fehlerhaften
Howtos hätten bei ihren Autoren tadellos funktioniert, weil bei denen
zufällig ein paar geflippte Bits die enthaltenen Fehler wie von
Geisterhand behoben hatten?

Oder irgendein freies Linux-Tool, das nicht unter Solaris compiliert.
Woran mag das liegen? Dass das System so komplex ist, dass der Autor
ein paar Kleinigkeiten übersehen bzw. einfach nicht gewusst und nicht
getestet hat? Oder daran, dass in meiner Maschine zufällig ein paar
Bits geflippt sind und so den Source modifiziert haben?

Das Fehlen von Determinismus ist beiweitem kein so großes Problem
wie das der Komplexität. Technisches Halbwissen entsteht nicht
dadurch, dass man gewisse Fragen nicht beantworten _kann_, sondern
dadurch, dass die Antworten zu kompliziert sind. Die Antworten sind
relativ gut verifizierbar, aber viele Leute machen sich die Mühe
nicht, oder testen/prüfen nur ganz oberflächlich.


Gruß,

    Volker

-- 
Volker Grabsch
---<<(())>>---
Administrator
NotJustHosting GbR



Mehr Informationen über die Mailingliste linux-l