linux-l: ab URL alle lokalen Dokumente saugen

Volker Kroll vkroll at i-m-r-k.com
Mo Jul 27 09:12:45 CEST 1998


On Mon, 27 Jul 1998, Oliver Bandel wrote:
> On Fri, 27 Jul 2018, Michael Dietrich wrote:
> > > Ich will alle lokalen Dokumente ab einer URL abwärts 
> > > saugen.
> Man kann bei HTML keinen ls-Befehl verschicken, wie bei ftp?
Nein!

> Und deswegen gehts mit wget nicht? Und wenn der Server es doch erlaubt?
> (Also gibt es doch einen ls-Befehl im HTML-Stanbdard?) 
In HTTP gibt es nur wenige Funktionen. GET PUT POST (und einige
nichtstandardisierte)

> Also: Wenn ich mit dem Webbrowser von einer Stelle an die andere
> micgh Klicke, dann sehe ich doch die Links, die ich mir holen 
> kann. Das ganze soll automatisiert werden. 
> Gibt es denn eine C-Bibliothek, die einem die Kommunikation mit
> dem HTML-Server erleichtert?

Es gibt die schon (in einem anderen Thread)  angesprochene LWP Bibliothek
fuer Perl, die das relativ
einfach kann. Das erste Dok. saugen -> nach Links durchsuchen und alle
Dokumente abspeichern.

Aber wie gesagt, Du kannst nur die referenzierten Dokumente ziehen.
Wenn Du nur die lokalen brauchst, kannst Du das saugen der referenzierten
ja entsprechend einschraenken.

Schau doch mal auf der Homepage von Gisle Aas (dem Autor von LWP):
http://www.sn.no/libwww-perl/
Da gibt es diverse Hinweise und sinnvolle Programme, die auf LWP
aufbauen.

HTH
Volker
**********************************************************************
* Volker Kroll (Berlin, Germany)                                     *
* Internet Marketing Roose + Kroll GbR                               *
* Webdesigner, Musiker                                               *
* mailto: vkroll at i-m-r-k.com                                         *
**********************************************************************



Mehr Informationen über die Mailingliste linux-l