linux-l: ab URL alle lokalen Dokumente saugen
Peter J. Weyers
peter at pooh.in-berlin.de
So Aug 2 22:27:52 CEST 1998
On Fri, 31 Jul 1998, Oliver Bandel wrote:
> auf einem Server ablegt und nicht auf viele Server verteilt. Will ich
> also nur die Aufsätze eines Autors haben, wobei ich davon ausgehe, daß
> sie in einem bestimmten Verzeichnis ab URL liegen, dann brauch' ich
> eben ein Programm, das mir das Verzeichnis mit Inhalten (rekursiv) zu
> mir kopiert.
Womit Michael recht hätte: Webserver erlauben nur in Ausnahmefällen
(entweder, wenn es explizit gewollt ist, oder der Webmaster gepennt
hat), das Inhaltsverzeichnis eines Verzeichnisse zu lesen. Damit kann es
auch kein Program geben, daß die entsprechenden Dateien holt, solange die
Namen nicht (normalerweise sind sie das durch existierende Links) bekannt
sind. Ein entsprechendes HTTP (Das Protokoll der WWW-Server) Kommando, das
dies ohne die Namen könnte, gibt es nämlich nicht.
Gruss,
__ _ _
Peter /o \ (_) ' ° O O O o . /\ (_) __
\ o/ L/[]\ /'.\
.|, || \|/ \|HF| \. /
_\|/__http://www.IN-Berlin.de/User/pooh/peter___|_L|_____\||/___||__
Mehr Informationen über die Mailingliste linux-l