[linux-l] Re: belug lernt nicht dazu!

Volker Grabsch vog at notjusthosting.com
Mo Nov 21 01:16:27 CET 2005


On Sun, Nov 20, 2005 at 11:58:14PM +0100, Oliver Bandel wrote:
> > Ich empfehle ein Wiki als Groupware.
> 
> Scheiß Wikis.
> 
> Man sucht ewig, bis man was findet.

In der Wikipedia, wie in vielen anderen Wikis, gibt's ne Volltextsuche.
Außerdem kann man Google veranlassen, nur in bestimmten Seiten zu
suchen.

> Dann klickt man dumm herum, bis man
> endlich editieren kann...

1 Mausklick auf "bearbeiten". Oder "tab,tab,tab,enter" :-)

> und muß dann mit seltsamen Wikisprachen
> herum wurschteln.

Wikisprachen sind wesentlich angenehmer als HTML. *Das* nämlich ist
Gewurschtel. Sie sind, wenn man sie erstmal gelernt hat, nicht selt-
samer als die üblichen Markierungen in E-Mail oder Newsgroups,
also *fett*, /kursiv/, _unterstrichen_,
* Aufzählung
* Aufzählung2
und so weiter. Man gewöhnt sich schnell daran, und ich persönlich
finde z.B. HTML sehr, sehr viel "seltsamer" und unangenehmer.

> Naja, soll ja auch gute, leicht bedienbare Wikis geben, aber oft ist es
> eher arbeitsaufwendig als arbeitsersparend.

Du pauschalisiert ziemlich. Kannst du mal konkret werden? Bisher
widersprichst du all meinen Erfahrungen. Selbst auf die primitivsten
Wikis, die ich kenne, trifft keine deiner Behauptungen zu.

> Jedenfalls gibt es auch zu viel Webbasierten schnickschnack.

Typo3 ;-)

Nee, auch das hat gute Anwendungen, wenn man sich erstmal eingefuchst
hat. Aber genau diese Einarbeitungszeit wollen Webinterface ja
*eigentlich* verkürzen ...

> Statt SQL-like, oder ähnliches (jedenfalls text-/kommandobasiert)
> Abfragen machen zu können (auch ein grep wäre schon nett)
> muß man sich durch den Web-Dünnschiß klicken.

Ein kompletter Download der Seiten ist immer möglich. Entweder weil
sie im Subversion liegen, oder einfach via Wget. Webseiten zu mirrorn
und einen Grep drüberjagen ist ja kein Ding.

Ein TarGZ zum Runterladen der gesamten Seiten wäre aber sicher eine
nette Erweiterung.

Doch bevor ich alles sauge und greppe ... lieber gleich Google .. oder
einen lokalen SVN-Checkout.

> Wie war das noch mit einem suchbaren Arbchiv der BeLUG-Mailingliste?
> 
> $ grep -i plakat belug-mailinglisten-archiv

Waren wir nicht gerade bei Wikis? Na, egal.

> => ewig lange recherchen und mehrfach-Lesen alter Dokumente,
> weil man die Vorzüge der Shell-basierten Arbeit dank der ach so tollen
> klicki-bunti Web-Seuche nicht mehr nutzen kann...

Nenn mir bitte auch nur *eine* im Netz stehende Seite, die du mit
grep durchsuchen kannst.  :-)

Der einzig halbwegs sinnvoll Vorschlag dieser Mail besteht darin,
dass man das gesamte Belug-Mailinglisten-Archiv in Form einer großen
Textdatei runterladen können sollte, bzw. in Form von mehreren
kleinen Textdateien. Und ja, da stimme ich dir zu.

Oder meinst du, jeder sollte Shell-Zugang auf den Server kriegen,
damit er dort einen grep-Befehl eintippen kann?

Sorry, es fällt mir schwer, deinen wahrscheinlich sinnvollen Gedanken
aus diesem Geschwafel herauszufiltern. Könntest du bitte deine Kritik
nochmal genauer erläutern?



Übrigens bin ich auch kein Fan von Webinterfaces. Ich würde eine größere
Wiki-Seite lieber in meinem Lieblings-Editor bearbeiten, und nicht in
diesem primitiven Browser-Texteingabe-Feld.

Mit w3m und lynx ist das übrigens möglich, man muss nur $EDITOR richtig
setzen.

Aber trotzdem arbeite ich lieber offline, und stell die Sachen danach
erst wieder online. Für sowas ist ein Subversion-Repository ideal.
So kann ich auch an den Seiten arbeiten, wenn ich gerade nicht online
bin. (z.B. im Zug)



Viele Grüße,

	Volker

-- 
Volker Grabsch
---<<(())>>---
Administrator
NotJustHosting GbR



Mehr Informationen über die Mailingliste linux-l