linux-l: ab URL alle lokalen Dokumente saugen

Oliver Bandel oliver at first.in-berlin.de
Fr Jul 31 11:18:00 CEST 1998


Hallo!



On Wed, 29 Jul 1998, Peter J. Weyers wrote:

> On Tue, 28 Jul 1998, Michael Dietrich wrote:
> 
> > womit wir den kreis mal wieder vollstaendg haetten. das ist, was ich
> > gesagt habe. der frager aber fragte, soweit ich mich erinnere nach
> > einer moeglichkeit, ALLE dateien in einem verzeichniss des webservers
> > zu bekommen.
> 
> Ich hatte ihn so verstanden, daß er von *allen* Links nur die lokalen
> verfolgen wollte ... vielleicht melder er (wer war es noch?) sich selbst
> noch einmal.
[...]

Meld!

Ich wollte die lokalen Dokumente eines Servers saugen. Wenn ich mir alle
lokalen Dokumente des Servers (ab einem bestimmten Verzeichnis) ziehe,
dann sind selbstverständlich auch die Dokumente dabei, die ebenso in diesen
Verzeichnissen liegen und über Links zu ziehen wären (was aber Wget
leider nicht bei allen Links macht(?!)).

In aller Regel kann man davon ausgehen, daß ein Autor seine Dokumente
auf einem Server ablegt und nicht auf viele Server verteilt. Will ich
also nur die Aufsätze eines Autors haben, wobei ich davon ausgehe, daß
sie in einem bestimmten Verzeichnis ab URL liegen, dann brauch' ich
eben ein Programm, das mir das Verzeichnis mit Inhalten (rekursiv) zu
mir kopiert.


Tschüß,
   Oliver



Mehr Informationen über die Mailingliste linux-l