Помню во времена коммутируемого доступа к интернету через телефонную линию, когда скорость была не выше 56 кбит/сек, были популярны различные программы, которые ускоряли интернет. Как бы это ни звучало, но такие программы работали и реально ускоряли доступ в сеть.
Что это была за магия такая?
На самом деле никакой магии. Такой софт, по факту, работал очень примитивно. Вы ставите на компьютер программу, которая является посредником между вашим ПК и интернетом. Она связана со своим сервером, который, в свою очередь, посещает нужные URL-адреса, сжимает контент до максимально возможного и отправляет клиенту в программу.
Сам же софт производит разархивацию контента. В итоге, например, если веб-страница была объемом в 50 кб, ее можно было сжать в несколько раз, допустим, до 10 кб. Сам же сервер программы был подключен по очень высокой скорости, что позволяло загружать сайты моментально.
Такой сервис мог сжимать даже изображения — можно было выбрать максимальное сжатие, и тогда изображения, которые показывал браузер, отображались в очень плохом качестве. Но даже такой способ позволял достаточно быстро посещать веб-сайты.
Конечно, для фильмов и дистрибутивов программ это было невозможно — фильм сжать без потери качества практически невозможно, а дистрибутивы уже шли в архиве. Но для серфинга по веб-страницам интернета эта технология вполне себе успешно работала.
Почему сейчас таких программ нет?
1. Раньше веб-сайты открывались по незащищенному протоколу HTTP. Чуть позже произошла популяризация расширения протокола HTTP, и владельцы сайтов установили SSL-сертификат. Сайты стали открываться через HTTPS. Проблема в том, что расшифровать такое соединение невозможно, и, соответственно, правильно сжать данные не выйдет — сервер-прокладка даже не узнает, по какому адресу происходит запрос к сайту.
Данные зашифрованы, и к ним нет доступа, поэтому соединение через такого грузящего страницу посредника заархивирует ее, а отправить клиенту данные станет уже невозможно технически.
2. Скорости интернета очень сильно подросли, вместе с ними же подрос и объем веб-страниц. Сейчас бывают такие сайты, посещение одной страницы которых может потребитель и 50, и 100 мегабайт трафика. Сервера научились сжимать контент на лету, а браузер быстро «разжимает».
То есть такой функционал уже встроен в браузере — большая часть текстовых данных приходит в обозреватель в сжатом формате. Невозможно сжать только изображения и видео. Но и здесь многие разработчики идут на хитрость: в зависимости от скорости соединения клиенту могут отдавать видео или изображения в низком качестве. Например, Youtube умеет определять скорость подключения и выдавать качество, при котором видео будет работать максимально быстро.
3. Некоторые популярные сайты имеют облегченную мобильную версию или даже Lite-версию приложений. Данные способы позволяют практически полноценно посещать ресурс при слабом подключении к интернету.
Материал по теме:
Мало кто, наверное, помнит о таких программах, но вот о режиме Turbo в браузере Opera помнят многие — в то время опция очень сильно выручала. Сейчас подобные программы есть, но от ускорения у них только название — максимум, что они могут, это проанализировать и выставить верные настройки или дать советы по снижению нагрузки на сеть.
Помните ли вы такой софт? Напишите в комментариях 👇
Посетите наш сайт и социальные сети: