Pobieranie stron internetowych na dysk


(Site) #1

Poszukuję programu, który umożliwi pobranie strony internetowej (pliki html, php, obrazki, pdf) na komputer.

Testowałem Offline Explorer 6.1 oraz kilka podobnych programów, jednak sprawdzają one się dobrze jako pobranie strony na podstawie sieci linków. Jednak jeśli załóżmy, że mamy na stronie plik dokument.pdf, który nie jest nigdzie podlinkowany, to taki plik nie jest pobierany. Szukam rozwiązania, aby pobrać cały dany folder, np. nazwastrony.pl/folder/ LUB jakoś obejść plik index.htm, który jest umieszczony nazwastrony.pl/folder/index.htm, co uniemożliwia mi podejrzenie plików w 'folder' i ręczne pobranie.


(Rosomak94) #2

Na Linuksie to wgetem. A, w Windowsie spróbuj HTTrack Website Copier. Kiedyś używałem działał całkiem nieźle.

Pozdrawiam


(Site) #3

Dziękuję, jednak cały czas mówimy o pobieraniu "normalnym", gdzie program przeszukuje stronę, trafia na link i pobiera linkowany plik. Jednak jak odnaleźć, pobrać plik, do którego nie prowadzi link, a jest on na serwerze? Chodzi konkretnie o pliki pdf. Znam dany katalog na serwerze, jednak umieszczony jest w nim index.htm który uniemożliwia przeglądanie...


(SMDOBPRO) #4

Jeśli strona twoja to w czym problem-klient ftp,logujesz się,wchodzisz przeglądasz katalogi,znajdujesz i ściągasz.

Jeśli znasz (ścieżkę) katalog i nazwę pliku daj w przeglądarkę może to umożliwi pobranie (choć nie zawsze).

Jeśli strona nie twoja,to już nie ladnie,bo jesli autor-właściciel chciałby udostępniać plik do pobrania to dałby link ,chyba jasne,ale jeśli sądzisz że to jego niedoróbka napisz majla do autora-właściciela z prośbą o udostępnienie.

Jednak mi coś tu nie pasi że chcesz grzebać w katalogach strony.

nie bardzo pojmuje co masz na myśli,napisz coś więcej,co za strona co za plik pdf etc..