В интернете полно сайтов предлагающих свои услуги по скачиванию сайта целиком для оффлайн просмотра, либо чтобы дизайнеры украли шаблон :) Зачастую можно столкнуться с ограничениями на размер скачиваемого сайта, вложенность или иные. Ведаю, как это можно сделать абсолютно бесплатно и просто. В Linux уже имеется встроенная утилита wget Команда имеет следующий шаблон: wget опции адрес_ссылки Параметры команды wget Список некоторых параметров: -r — указывает на то, что нужно переходить по ссылкам на сайте, чтобы скачивать все подкаталоги и все файлы в подкаталогах. -k — преобразует все ссылки в скаченных файлах, чтобы по ним можно было переходить на локальном компьютере в автономном режиме. -p — указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.). -l — определяет максимальную глубину вложенности страниц, которые нужно скачать. Обычно сайты имеют страницы с большой степенью вложенности и чтобы wget не начал «закапываться», с
Как скачать сайт, используя утилиту wget?
28 мая 202428 мая 2024
220
1 мин