To nie będzie działało zawsze. Możesz spróbować używać https://web.archive.org/, a jak chcesz to są wtyczki do pobierania kompletnych snapshotów stron, ale nazw nie pamiętam bo nigdy nie używałem. Dodatkowo jest jeszcze w każdej przeglądarce Ctrl+S.
Dla Windows użyj Teleport Pro, w Ubuntu wystarczy wget.
Co do pobierania całości strony, to pamiętaj o jednym: jeśli plik istnieje na serwerze, ale żaden z odnośników na stronie do niego nie prowadzi, to pliku nie pobierzesz. Strona musi mieć do niego odniesienie.
Jak masz pliki: index.html oraz moje-nagie.foty.jpg, a w pliku index.html znajduje się wyłącznie “hello world” bez odniesienia do pliku moje-nagie.foty.jpg, to jotpega automatycznie już nie pobierzesz. Chyba, że znasz jego dokładną nazwę.
No to jest chyba oczywiste, tylko, że nawet jeśli miałbyś img do tych zdjęć w html to wgetem i tak ich automatycznie nie pobierzesz. Strona nie jest pobierana przy pomocy jednego żądania lecz wielu, pobierając index.html pobierasz sam html, bez zewnętrznych skryptów css’ów i obrazków. Są programy które pozwalają prawie wszystkie te elementy pobrać i zapisać na dysku - na przykład każda przeglądarka przy pomocy Ctrl+S. Zapisze Ci na dysku wszystkie css, html i grafiki jakie dana podstrona wykorzystuje. Jednak nic Ci nie pobierze linków - odsyłaczy do innych podstron czy plików znajdujących się pod innym adresem jeśli sam o to nie zadbasz. Zapisywane są tylko te elementy które są wyświetlane na stronie, zawartość znajdująca się pod linkiem nim nie jest.