Скачивание сайта с помощью wget в Linux

Как скачать сайт с помощью wget для просмотра в оффлайн

Недавно мне понадобилось скачать на жёсткий диск целый сайт, чтобы сохранить его для последующего просмотра в оффлайн режиме. Тогда я в который раз убедился, что CLI утилиты Linux — необычайно мощные и гибкие инструменты, с помощью которых можно сделать практически всё! Вот и в моём случае мне помогла небольшая утилита с управлением из терминала Wget, которая уже давным давно установлена в моём Arch Linux, а во многих дистрибутивах установлена «из коробки».

Итак, как с помошью wget полностью скачать сайт? Очень просто

wget -r -k -l 5 -p -E -nc https://imatvey.tk/

Выполнять нужно из той директории, куда нужно скачать сайт. Параметром -l можно регулировать глубину вложенности ссылок для обработки. Ну и, естественно, нужно заменить ссылку на мой блог на свою. Как видно, скачать сайт в Linux — проще некуда 😊

Этим материалом можно поделиться:

6 ответов на “Как скачать сайт с помощью wget для просмотра в оффлайн”

    • Иногда бывает нужно. Например, если сайт представляет из себя обособленную энциклопедию, и вскоре может просто отключиться. Тогда у тебя будет локальная копия, которую ты сможешь и дальше просматривать.

Добавить комментарий

Ваш e-mail не будет опубликован.

Scroll Up
На этом блоге могут использоваться cookie-файлы. Продолжая просмотр, вы соглашаетесь с использованием cookie-файлов.
Принять и закрыть уведомление
Политика конфиденциальности