linux-l: ab URL alle lokalen Dokumente saugen

Oliver Bandel oliver at first.in-berlin.de
Mo Jul 27 01:10:52 CEST 1998


Hallo Michael!



On Fri, 27 Jul 2018, Michael Dietrich wrote:

> > Ich will alle lokalen Dokumente ab einer URL abwärts 
> > saugen.
> > Es soll nicht nach den Links im Dokument weiter gesucht
> > werden (wie bei wget), sondern es sollen nur die Files,
> > die ab einer URL lokal auf dem Server liegen, gezogen
> > werden.
> mit wget :)) also: bei http geht's eben nicht, da du da nicht den
> verseichnissinhalt abfragen kannst, es sei denn der server erlaubt
> dies,


???

Wie jetzt.?

Man kann bei HTML keinen ls-Befehl verschicken, wie bei ftp?

Und deswegen gehts mit wget nicht? Und wenn der Server es doch erlaubt?
(Also gibt es doch einen ls-Befehl im HTML-Stanbdard?) 


Wenn ich den HTML-Server direkt anspreche, dann müßte ich mich
doch an den Ausgaben entlang hangeln können?

Also: Wenn ich mit dem Webbrowser von einer Stelle an die andere
micgh Klicke, dann sehe ich doch die Links, die ich mir holen 
kann. Das ganze soll automatisiert werden. 
Das Problem das ich hatte war ja, daß mir wget eben einige Dokumente
NICHT besorgen konnte, die ich mir mit lynx aber von Hand ziehen
konnte. Das muß sich doch automatisieren lassen.

Gibt es denn eine C-Bibliothek, die einem die Kommunikation mit
dem HTML-Server erleichtert?
Oder muß ich da in den lynx-Sourcen rum wühlen?

Oder gibts nicht vielleicht schon ein Programm, das mir den ganzen
Quark ermöglicht?


Tschüß,
    Oliver



Mehr Informationen über die Mailingliste linux-l