linux-l: Noch bash Fragen..

Oliver Hillmann ohil at tequila.in-berlin.de
Mo Jan 26 16:24:45 CET 1998


On Mon, 26 Jan 1998, Oliver Bandel wrote:
> [...]
> > Na, ich habe mal fast zwei Wochen an einem Shellskript gebastelt, das mir
> > Webseiten saugen sollte, um dann deren Links auswerten und die
> > entsprechenden Seiten holen sollte...
> Aha!
> 
> Kannst Du mir mal so ein perl-Script oder C-Programm zukommen lassen?

Also, meine besten Erfahrungen hab ich mit wget gemacht. Der Name des
perl-Teils ist mir entfallen, aber ich schau mal nochmal nach (webget,
vielleicht..?) Ich hoffe, wir meinen das gleiche: Rekursives Runtersuagen
von verknüpften Webseiten automatisch, ohne Browser..? Das macht wget sehr
schön, holt allerdings keine Bilder (läßt isch aber sicher entsprechend
patchen).

Den C-Sourcecode solltes Du auf jedem GNU-Mirror finden, also z.B. unter
(schmeiß-archie-an...), unter

	ftp.tu-ilmenau.de:/pub/gnu/wget-1.4.2.tar.gz

	ftp.urz.uni-heidelberg.de:/pub/
	linux/mirror.redhat/contrib/hurricane/SRPMS/wget-1.4.5-1.src.rpm.Z
	
	ftp.fu-berlin.de:/unix/gnu/wget

Hoofe, eine von denen klappt, sonst direkt auf prep.ai.mit.edu ... Hat ca.
200 kB.

> Ich bin nämlich auch genervt vom vielen Klicken und speichern, klicken und
> speichern, ...

Siehste! Vor allem bei VIEIEILEN Seiten, die alle zu einem Dikument
gehören, wa..

> Gibts das auch als Mail-Version (Web-Mailer)?
Keine Ahnung... (Nicht mal, was Du damit meinst :-/)
 
> Kann man auch Links ausblenden (damit man nicht gleich Megabytes
> angeschwemm bekommt)?

Bei wget kann man Rekursionstiefen und zu holende Domains und seiten
angeben. Schau Dir am besten mal die Fülle der Optionen in der man wget
an.

Bis dann,

Oli
---
Oliver Hillmann, Berlin (Germany) <ohil at tequila.in-berlin.de>

When one voice rules the nation
Just because they're top of the pile
Doesn't mean their vision is the clearest
                       -- 'Ideology', Billy Bragg






Mehr Informationen über die Mailingliste linux-l