[linux-l] Re: Wiki-Grundsatz-Diskusion

Rocco Rutte pdmef at cs.tu-berlin.de
Mi Mai 17 00:13:41 CEST 2006


Hi,

* Peter Ross [06-05-17 07:27:52 +1000] wrote:
>On Tue, 16 May 2006, Olaf Radicke wrote:

>>Sag ich ja. Du sitzt in der Sch****. Egal wie du es wendest. Das
>>Konvertierungsscripte was Wikipedia-Diskusionen in NNTP umwandelt möchte ich
>>sehen...!

>Daraus Mailbox-Format zu machen ist nicht aufwendiger als es in ein X-beliebiges anderes Format zu konvertieren, welches Du gerade 
>erfinden willst.

>Vorteil: Es gibt es schon, inklusive vieler Tools, daraus etwas anderes zu machen. Es ist ein Standardaustauschformat fuer Mail 
>und News und laesst sich ohne weiteres fuer Diskussionsforen verwenden.

Also erstens gibt es zunächst einen Unterschied zwischen Nachrichten- 
und Mailbox-Format. Außerdem unterscheiden sich (lt. RfC) Mail und News 
da an komischen Stellen (auch wenn viele Mails als News durchgehen und 
andersrum, es ist technisch nicht das gleiche) teils "stark" (wenn man 
sowas implementieren will ist "stark" gross, sonst eher nicht :).

Ich wäre bei einer solchen Lösung aus einem anderen Grund gegen Mail 
oder NNTP: es gibt schlicht zu viele kaputte Clients. Die Server sind 
gut und lassen sich prima verteilen, lokal (für den Poweruser oder 
Institutionen) clonen mit Feeds, etc. Aber das Problem bleibt halt, dass 
es schlicht zu viele kaputte Clients gibt, was beim Encoding erst 
anfängt.

Und "wir" sind eher technisch versierte Nutzer, die meist Programme 
benutzen, die die Standards gut genug implementieren. Aber der 
Otto-Normalleser, der nur einen Typo fixen will, wird einen kaputten 
Client verwenden (vgl.: Murpys Law :).

Das ist aber auch das einzige, was dagegen spricht.

Es gibt tonnenweise MIME-Parser und für den Transport über NNTP nimmt 
man halt text/xml mit einer DTD/sonstiger Validierung. Es wäre schon 
echt cool, wenn man Wikipedia-Diskussion über NNTP weltweit verteilen 
könnte, weil man dann die zentrale Last vom Webserver des Wikis nehmen 
könnte: er kriegt den Artikel peer Feed halt dann, wenn er Zeit dafür 
hat.

>Dein Argument, dass Du nun drei statt einem Dump brauchst, zieht nicht wirklich. Mit der selben Begruendung koennte ich die 
>eierlegende Wollmilchsau "Apache-Dump" entwickeln wollen, die mir automatisch einen Rechner mit DB dumpt, und die ich dem anderen 
>System nach Installation vorwerfem, und hinterher laeuft darauf ein konfigurierter Apache, mit MySQL-Datenbank und allen 
>statischen Webpages etc..

>Und so aehnlich sieht ein Wiki auch aus. Sie besteht aus vielen Teilen, die erst nach aussen hin eine Einheit bilden.

Die Analogie stimmt IMHO nicht. Wenn man in ein neues Wiki ein 
Diskussionsformat (+Transport) einbaut, dann ist das eher ein CMS und da 
brauchst du wieder 1 eingebautes Dump (was dann auch DB-Tabellen und 
Configs beinhalten wird), weil das SCM von Apache und DB abstrahiert. 
Wenn man einzelne Teile hat, muss man sich selbst um die Dumps kümmern.

>Es ist schoen, wenn einzelne Teile austauschbar sind, und auf dieser Ebene sollten Protokolle auch standardisiert sein, weil sie 
>so nicht nur dem Spezialfall Wiki vorbehalten bleiben, sondern allgemein brauchbar sind. Und sich so einfacher verbreitet. Wenn Du 
>jedem Newsserver-Entwickler sagst, er muss WikiXML "sprechen", fragt er sich - was soll das? (und Du musst jedes Tool, was Du als 
>Wiki-Entwickler verwenden willst, selbst mit Wiki-XML "bestuecken")

Ich finde diese Art von Recycling gut und wichtig, aber es hat auch 
Grenzen. Nur des Recyclings Willen etwas wieder zu benutzen, halte ich 
für nicht sinnvoll sondern nur dann, wenn man mit wenig Einschränkungen 
genau das gewünschte Ziel erreicht.

Und das ist hier die Frage...

   bye, Rocco
-- 
:wq!



Mehr Informationen über die Mailingliste linux-l