Как мога да изтегля цял уеб сайт?
Вие не само искате статия или отделен образ, а искате цяло уеб сайт. Какъв е най-лесният начин да сифонирате всичко това?
Днешната сесия за въпроси и отговори идва при нас с любезното съдействие на SuperUser - подразделение на Stack Exchange, групирано от общността уеб сайтове за въпроси и отговори.
Изображението е налично като тапет в GoodFon.
Въпроса
Четецът на SuperUser Joe има проста заявка:
Как да изтегля всички страници от уебсайт?
Всяка платформа е наред.
Всяка страница, без изключение. Джо е на мисия.
Отговорът
Сътрудник на SuperUser Axxmasterr предлага препоръка за приложение:
http://www.httrack.com/
HTTRACK работи като шампион за копиране на съдържанието на целия сайт. Този инструмент може дори да вземете парчетата, необходими за създаването на уебсайт с активно съдържание за работа в офлайн режим. Аз съм изумен от нещата, които могат да възпроизвеждат офлайн.
Тази програма ще направи всичко, от което се нуждаете.
Приятно ловуване!
Можем сърдечно да препоръчаме HTTRACK. Това е зряло приложение, което свършва работата. Ами архивистите на платформи, които не са на Windows? Друг сътрудник, Jonik, предлага друг зрял и мощен инструмент:
Wget е класически инструмент за командния ред за този вид задачи. Той идва с повечето Unix / Linux системи и можете да го получите и за Windows (по-нова версия 1.13.4).
Бихте направили нещо като:
wget -r - не-родител http://site.com/songs/
За повече подробности вж. Ръководството на Wget и неговите примери, или ги разгледайте:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Имате ли какво да добавите към обяснението? Звукът е изключен в коментарите. Искате ли да прочетете повече отговори от други технологични потребители на Stack Exchange? Вижте пълната тема за дискусия тук.