В интернете полно сайтов предлагающих свои услуги по скачиванию сайта целиком для оффлайн просмотра, либо чтобы дизайнеры украли шаблон :) Зачастую можно столкнуться с ограничениями на размер скачиваемого сайта, вложенность или иные. Ведаю, как это можно сделать абсолютно бесплатно и просто. В Linux уже имеется встроенная утилита wget Команда имеет следующий шаблон: wget опции адрес_ссылки Параметры команды wget Список некоторых параметров: -r — указывает на то, что нужно переходить по ссылкам на сайте, чтобы скачивать все подкаталоги и все файлы в подкаталогах...
В #Linux все просто. Открываем терминал и используем wget со следующими параметрами: wget -r -k -l 7 -p -E -nc https://ссылка-на-сайт Если у вас macOS, то wget по умолчанию не установлен. Это решается следующим образом. tar -xvzf wget-1.19.tar.xz 4. Переходим в распакованную папку — в моем случае wget-1.19 5. Вводим следующие команды для установки wget ./configure --with-ssl=openssl make
sudo make install 6...