Закачка сайтов

Край как нужно было закачать сайт для offline-просмотра. Вспомнилось, что в firefox’e такую возможность имел scrapbook. Ан нет! Адресок «http://www.drawanime.ru/?pg=art&id=01» он переваривать отказался.

Начал искать offline-браузеры под линукс, нашёл лишь httrack и проприетарный webcopier. httrack мою ссылку также переваривать отказался, а webcopier отказался запускаться вообще.

И всё! больше ни-че-го. Неужели, думаю, никто под линуксом сайты не выкачивает? Где же софт?

И явился софт. Он, оказывается, всегда был. Видимо, выкачивать сайты с помощью консольного wget для линуксоидов настолько естественно, что про это уже даже и не обсуждается. 🙂

Закачать выбранный адрес вместе со ссылками можно с помощью команды:

wget -H -r --level=1 -k -p http://konstantindmitriev.ru/blog/

где:

  • -H разрешает переходить по ссылкам на другие хосты
  • —level=1 указывает глубину вложенности ссылок, которые следует закачивать
  • -p требует загрузки страниц вместе со связанным содержимым (картинки, стили)
  • -k переписывает ссылки на локальные

Для своей ссылки я использовал команду:

wget -r --level=2 -k -p --restrict-file-names=windows --limit-rate=3k "http://www.drawanime.ru/?pg=art&id=01"

где:

  • —restrict-file-names=windows заменяет специалььные символы в именах фалов (такие как «?») чтобы в случае чего не возникало проблем с копированием на FAT32/NTFS.
  • —limit-rate=3k ограничивает скорость закачки до 3KB/s чтробы не занимать весь канал.

Адрес заключён в кавычки, чтобы экранировать символ «&» в коммандной строке.

Ещё примеры использования wget можно посмотреть на http://lifehacker.com/software/downloads/geek-to-live—mastering-wget-161202.php .

Вот так. Выходит «закачка сайтов» — функция по-умолчанию для любого дистрибутива линукс испокон веков. Microsoft с их IE такого и не снилось.


Комментарии:

Закачка сайтов: 3 комментария

Добавить комментарий