Programm gesucht

GevatterBaer

Grand Admiral Special
Mitglied seit
24.12.2001
Beiträge
2.846
Renomée
1
Tach!

Ich suche ein Programm, dass mir Grafiken aus dem Web lädt. Ich will z.B. alle Grafiken von

http://www.meineurl.de/order[001-XXX]/[001-YYY].jpg

herunterlädt. Habe bereits geggoglet aber nichts passendens gefunden? Kennt einer von euch sowas?
 
Ansonsten ein tool für alles: wget

PS: Damit du dich nicht mit Parameter rumschlagen musst, kannst du noch das wgetGUI verwenden...

Greets
 
ah ok , dann scheint sowas ja doch legal zu sein , hattge ihm webreaper empfohlen :)

gruss
crawler
 
Original geschrieben von crawler
geht nicht 8) es sei den man kann dem programm sagen das es auch hyperlinks überprüfen soll ,.. aber dann kannste ja gleich das ganze inet saugen ^^

gruss
crawler

Das kann wget. Dem kannst du auch die Rekursionstiefe (wie weit es links folgen soll) mitteilen. ;)
 
;D sind solche programme nun eigentlich legal ? oder kann man sie vom admin. her aufspüren ? eigentlich isses ja einfach so als wenn ich jede file immer rechtsklick-> speichern mache oder ?

gruss
crawler (der wget mal ausprobiert)

/edit: :[ :[ :[ wget ist ein herforagendes beispiel für benutzerunfreundliche installation ! aber egal ; jetzt muss es zeigen was es kann !
 
Zuletzt bearbeitet:
teleport pro nehme ich immer.
 
flashget oder nettransport hätte ich da noch als alternativen zu nennen ;)
 
Original geschrieben von crawler
;D sind solche programme nun eigentlich legal ? oder kann man sie vom admin. her aufspüren ? eigentlich isses ja einfach so als wenn ich jede file immer rechtsklick-> speichern mache oder ?

gruss
crawler (der wget mal ausprobiert)

/edit: :[ :[ :[ wget ist ein herforagendes beispiel für benutzerunfreundliche installation ! aber egal ; jetzt muss es zeigen was es kann !

Wieso hat es keine benutzerfreundliche Installation? Es hat ja gar keine :)

Und ja, die tools sind legal (das Verwenden von fremden Inhalten steht auf einem anderen Blatt), und ja, der Admin sieht, dass du mit wget oder was anderem runtergeladen hast... bei mir lokal sieht das so aus:

192.168.0.100 - - [22/Dec/2004:12:29:50 +0100] "GET / HTTP/1.0" 200 4124 "-" "Wget/1.9.1"
192.168.0.100 - - [22/Dec/2004:12:29:50 +0100] "GET /robots.txt HTTP/1.0" 404 288 "-" "Wget/1.9.1"
192.168.0.100 - - [22/Dec/2004:12:29:50 +0100] "GET /icons/jhe061.gif HTTP/1.0" 200 17175 "http://192.168.0.101:800/" "Wget/1.9.1"
192.168.0.100 - - [22/Dec/2004:12:29:50 +0100] "GET /doc/apache/ HTTP/1.0" 403 293 "http://192.168.0.101:800/" "Wget/1.9.1"
192.168.0.100 - - [22/Dec/2004:12:29:50 +0100] "GET /icons/debian/openlogo-25.jpg HTTP/1.0" 200 1258 "http://192.168.0.101:800/" "Wget/1.9.1"
192.168.0.100 - - [22/Dec/2004:12:29:50 +0100] "GET /icons/apache_pb.gif HTTP/1.0" 200 2326 "http://192.168.0.101:800/" "Wget/1.9.1"
 
oh ... stimmt ja '--user-agent=' :)

Möchte nur wissen, wo du wieder mal heimlich die Seiten abräumst :) -hihihi-
 
Zurück
Oben Unten