Pobranie CAŁEGO bloga Wordpress na dysk twardy offline

Witam
Mam problem. Potrzebuję pilnie pobrać pewnego bloga Wordpress na dysk twardy do przeglądania w przyszłości offline. Blog ma około 250 stron (na każdej po ~10 postów).
Próbowałem już dwóch programów - HTTrack Website Copier:
https://www.httrack.com/
Oraz Offline Explorer:
https://metaproducts.com/products/offline-explorer
Żaden nie potrafi ściągnąć CAŁEGO bloga. Kilka pierwszych stron wraz z postami jest ściągnięte, ale późniejsze - NIE! Próbowałem też wget na Arch Linux - ten sam problem. W programach zaznaczam wszystkie pliki, wszystkie możliwe odnośniki itp. - bez efektu.
Tak więc moje pytanie, jakiś sprawdzony program, który by potrafił ŚCIĄGNĄĆ CAŁEGO BLOGA WORDPRESS NA DYSK TWARDY? CAŁEGO?
Pozdrawiam, sorry za Caps Locka, ale… nie wiem w zasadzie jakie ale :smile:

Pozdrawiam serdecznie, błagam o pomoc :slight_smile:

Spróbuj dodać opóźnienia lub zmianę używanego IP/karty sieciowej z innym operatorem internetowym.

Może strona ma jakiś skrypt do analizy przeciążeń i banuje Cię automatycznie lub webmaster ma powiadomienie z mechanizmem szybkich banów.

1 polubienie

Jaki adres bloga?

Hm. Chodzi Ci o pobieranie automatycznie co jakiś czas? Lub jest może jakiś program do jakby zmiany IP co jakiś czas? Może jakiś VPN?

Tak.

1 polubienie

Ciekawe, czy archive org nie dałoby się jakoś zmusić, żeby zindeksował wszystkie wpisy. Problem tylko, bo twórca zawsze może zawnioskować o usunięcie tych kopii.

Można by to ugryźć inaczej i użyć jakiegoś scrappera.
Polega to na tym, że ściągasz Octoparse 8, trenujesz skrypt pod względem tego, jakie operacje ma wykonywać.
Normalnie na otwartej stronie tam w programie klikasz poszczególne elementy, żeby dostać się do całego wpisu, a potem jakie teksty mają być kopiowane - nagłówek i tekst, a potem, że ma wrócić do poprzedniej strony, otworzyć następny wpis, skopiować, i tak kilka razy, żeby skrypt był dobrze wytrenowany i wiedział co ma robić.
Tutorial na przykładzie FB:

1 polubienie

Kiedys posiłkowałem się czymś takim, ale trzeba uważać co się zaznacza, bo można trafić na film w 4K, i 20 GB leci.

Już widzę jak w pętli pobiera 2499 artykułów i 249 podstron „2+”.

Można,ze tylko tekst i spokojnie =–da się

Nie o to chodzi, ten sam problem - ja muszę ściągnąć CAŁY BLOG, wszystkie zdjęcia, pliki, posty, podstrony itp

Podaj bloga to zobaczy czy jest tam problem :slight_smile:

A może to blog o jakiś kobietach z penisami i się wstydzi.

Po innych tematach strzelam, że coś związanego z minecraftem :slight_smile: Ale przy takich stronach może są jakieś zabezpieczenia przed kopiowaniem :slight_smile:

Możesz spróbować ustawić user-agenta w httracku może pomoże, może jest ograniczna liczba zapytań na minute itp.

Masz 15 programów do tego
https://prowebscraper.com/blog/top-website-ripper-or-website-downloader-compared/

Dosyć dawno temu z największym powodzeniem używałem Teleport Pro -- Offline Browsing Webspider
Wget jest zbyt prosty do takich operacji, a httrack można zmusić do wielu rzeczy ale wymaga to wiele wysiłku, prób i błędów.

Nie kciuk w dół, tylko najpierw zapoznaj się z menu i ustawieniami

O, ok, spróbuję

Jakoś nie ufam, że „listed URL-s” wykrywa te co są na stronie.

Nie daj Boże są linki zewnętrzne, to nagle „pół Internetu” zapisze i się dysk zapcha a blog dalej będzie w powijakach.

Tylko Chuck Norris potrafi zgrać internet na dyskietkę.

Musisz mieć dostęp do hostingu i normalnie przegrywasz pliki wszystkie , do tego exportujesz bazę SQL ręcznie lub dedykowanym programem.