Ściąganie strony WWW

Witam chciałem ściągnąć pewną stronę www. Nie wiem jaki program jest do tego dobry. Co polecacie?? Proszę o pomoc. :smiley:

WinHTTrack Website Copier O ile się nie mylę to jest on w języku polskim.

Ściągałem tym programem i po otworzeniu projektu który był zapisany idzie od połowy albo od początku. Wie może ktoś jak na to zaradzić lub jakiś inny dobry program??

A może wirtualna drukarka? Program PDFCreator lub doPDF którego używam. Wchodzisz na stronę którą chcesz zrzucić i wybierasz Plik, drukuj i wybierasz drukarkę wirtualną.

Teleport Pro. Link: http://www.programosy.pl/program,teleport-pro.html

Programem Wget pobierzesz zarówno całą strukturę strony, jak i określone poziomy jej zagłębienia - dostępny również dla systemów Windows :wink:

Pozdrawiam!

Jak się posługiwać Teleport pro?? Jak dam stronę do ściągnięcia to listuje pliki, parę ściągnie ale tych co chce to nie ma.jest tylko folder na tej liście. Co mam potem zrobić?? Proszę o pomoc.

Zauważ, że programy do przeglądania stron offline. Nie dadzą ci dostępu do bazy danych czy plików wykonywanych na serwerze. Zapewniam, że wszystkie pliki które powinien widzieć użytkownik będą dla ciebie widoczne w owym programie.

No właśnie są dostępne dokładnie obrazki, jest ich dużo i nie chce ściągać osobno.

Jeszcze jeszcze cURL :wink:

Pozdrawiam!

Ale to są zwykłe obrazki i nie wiem jak je ściągnąć. HTTrack nie rozpoczyna od końca tam gdzie zapisze, w teleport coś jest chyba nie tak, a w Wget ściąga mi jeden plik html.

Bo trzeba jeszcze umieć go użyć :wink:

wget -r http://jakasstrona.pl

I ciągnie Ci całą stronę i całą jej strukturę, żeby ograniczyć poziom zagłębienia korzystasz z opcji -l i liczbowo określasz poziom zagłębienia, np. 2

wget -r -l 2 http://jakasstrona.pl

Natomiast dzięki opcji -k możesz konwertować linki wtedy cała strona będzie dostępna offline na localhoście.

Pozdrawiam!

Dalej to samo w Wget. Nie wiem co jest, proszę o pomoc.

Z przeglądarki da się zapisać stronę .Plik > Zapisz jako > typ > Archiwum strony jeden plik (.mht)

Ja chce tylko obrazki ze strony ściągnąć i podstron. Macie jakieś pomysły?

No to chodzi Ci o witrynę a nie o stronę www :stuck_out_tongue:

Sprawdź http://www.exisoftware.com/news/save-website.html

Już wspomniałem o tym - cURL :wink:

Pozdrawiam!

Moglibyście mi powiedzieć jak obsługiwać ten cURL??