Pobramie całej strony


(Kepes) #1

Cześć, potrzebuje pobrać cała stronę postawioną na pewnej domenie.

Może być to format .HTML

Wiem że można - prawy przycisk myszy i pobierz. Lecz zależy mi żeby po kliknięciu na dany odnośnik na stronie przeniosło mnie na niego, będąc offline.

Czy jest jakieś oprogramowanie do tego typu operacji, lub sposób na to?


(gom1) #2

Jaki system operacyjny?


(D35CART35) #3

A po co Tobie klon strony (kodu HTML)?


(Kepes) #4

Windows 7 lub Ubuntu 16.4


(Kepes) #5

Usuwają z pewnej strony ISO na PS2, które są na serwerze ich ale na stronie się nie pokazują. Poprzez kopię strony można dalej je ściągać z serwera.


(Fizyda) #6

To nie będzie działało zawsze. Możesz spróbować używać https://web.archive.org/, a jak chcesz to są wtyczki do pobierania kompletnych snapshotów stron, ale nazw nie pamiętam bo nigdy nie używałem. Dodatkowo jest jeszcze w każdej przeglądarce Ctrl+S.


(gom1) #7

Dla Windows użyj Teleport Pro, w Ubuntu wystarczy wget.

Co do pobierania całości strony, to pamiętaj o jednym: jeśli plik istnieje na serwerze, ale żaden z odnośników na stronie do niego nie prowadzi, to pliku nie pobierzesz. Strona musi mieć do niego odniesienie.


(Fizyda) #8

Ale że co? Jak plik jest na serwerze i znasz do niego adres to go pobierzesz bez względu na to czy gdzieś w internecie jest do niego link czy nie…


(gom1) #9

Jak masz pliki: index.html oraz moje-nagie.foty.jpg, a w pliku index.html znajduje się wyłącznie “hello world” bez odniesienia do pliku moje-nagie.foty.jpg, to jotpega automatycznie już nie pobierzesz. Chyba, że znasz jego dokładną nazwę.


(Fizyda) #10

No to jest chyba oczywiste, tylko, że nawet jeśli miałbyś img do tych zdjęć w html to wgetem i tak ich automatycznie nie pobierzesz. Strona nie jest pobierana przy pomocy jednego żądania lecz wielu, pobierając index.html pobierasz sam html, bez zewnętrznych skryptów css’ów i obrazków. Są programy które pozwalają prawie wszystkie te elementy pobrać i zapisać na dysku - na przykład każda przeglądarka przy pomocy Ctrl+S. Zapisze Ci na dysku wszystkie css, html i grafiki jakie dana podstrona wykorzystuje. Jednak nic Ci nie pobierze linków - odsyłaczy do innych podstron czy plików znajdujących się pod innym adresem jeśli sam o to nie zadbasz. Zapisywane są tylko te elementy które są wyświetlane na stronie, zawartość znajdująca się pod linkiem nim nie jest.


(yta2) #11

WinHHtrack, w wielu lustrach pobiera inne odsyłacze itd.

trzeba pamiętać o limicie URL, który moźna zmienić na dowolnie wielki.