Witam
Mam problem. Potrzebuję pilnie pobrać pewnego bloga Wordpress na dysk twardy do przeglądania w przyszłości offline. Blog ma około 250 stron (na każdej po ~10 postów).
Próbowałem już dwóch programów - HTTrack Website Copier: https://www.httrack.com/
Oraz Offline Explorer: https://metaproducts.com/products/offline-explorer
Żaden nie potrafi ściągnąć CAŁEGO bloga. Kilka pierwszych stron wraz z postami jest ściągnięte, ale późniejsze - NIE! Próbowałem też wget na Arch Linux - ten sam problem. W programach zaznaczam wszystkie pliki, wszystkie możliwe odnośniki itp. - bez efektu.
Tak więc moje pytanie, jakiś sprawdzony program, który by potrafił ŚCIĄGNĄĆ CAŁEGO BLOGA WORDPRESS NA DYSK TWARDY? CAŁEGO?
Pozdrawiam, sorry za Caps Locka, ale… nie wiem w zasadzie jakie ale
Ciekawe, czy archive org nie dałoby się jakoś zmusić, żeby zindeksował wszystkie wpisy. Problem tylko, bo twórca zawsze może zawnioskować o usunięcie tych kopii.
Można by to ugryźć inaczej i użyć jakiegoś scrappera.
Polega to na tym, że ściągasz Octoparse 8, trenujesz skrypt pod względem tego, jakie operacje ma wykonywać.
Normalnie na otwartej stronie tam w programie klikasz poszczególne elementy, żeby dostać się do całego wpisu, a potem jakie teksty mają być kopiowane - nagłówek i tekst, a potem, że ma wrócić do poprzedniej strony, otworzyć następny wpis, skopiować, i tak kilka razy, żeby skrypt był dobrze wytrenowany i wiedział co ma robić.
Tutorial na przykładzie FB:
Dosyć dawno temu z największym powodzeniem używałem Teleport Pro -- Offline Browsing Webspider
Wget jest zbyt prosty do takich operacji, a httrack można zmusić do wielu rzeczy ale wymaga to wiele wysiłku, prób i błędów.