Чтобы ответить на вопрос "для чего нужна виртуализация", нам понадобится сперва немного окунуться в историю этого явления и задачи, которые возникали перед ИТ-специалистами прошлых лет. Затем посмотреть на основные проблемы, которые стоят перед айтишниками сегодня. И только в самом конце, мы сможем свести всё это вместе и сделать правильные выводы.
Откуда взялась виртуализация
Если не углубляться в доПКшное прошлое, то к концу 80-х годов количество компьютеров росло уже в геометрической прогрессии. Также стремительно увеличивалось и число их производителей, многие из которых выпускали собственные операционные системы или глубоко модернизировали существующие, часто с потерей совместимости.
В связи с этим все чаще и чаще возникала необходимость переносить программы с одних компьютеров на другие, от других производителей. Так в 1988 году компания Insignia Solutions выпустила первый в мире эмулятор SoftPC для UNIX, который был способен запускать на этой операционной системе программы от MS-DOS. Через год в этот эмулятор добавилась возможность запуска программ для первых версий Windows. Тогда же она вышла и под Mac OS. Но это была еще только виртуализация на уровне приложений.
Однако главная мечта того времени - полностью виртуальный компьютер, была еще долгое время технически недостижима. Пока в 1998 году не появилась компания VMWare, и не стала пропагандировать и развивать технологии виртуализации на уровне ОС. В 1999 году вышел их первый полноценный гипервизор VMware Workstation, который устанавливался на ОС Windows и позволял создать полноценную виртуальную машину (ВМ) с возможность установки на ней собственной ОС. Главным преимуществом ВМ было в том, что появилась возможность перенести ОС со всем своим содержимым, простым копированием небольшого количества файлов с одного компьютера на другой, минуя трудоёмкий процесс установки ОС на новом "железе" с развёртыванием на ней ПО по-новой.
Первые гипервизоры были очень прожорливыми в плане вычислительных ресурсов, и недостаточно надёжными. Тем не менее время шло, программы оттачивались, гипервизорам даже перестала быть нужна хостовая ОС, которая отнимала у них драгоценные память и процессор.
В течении первого 10-летия XX века, к VMWare присоединились и другие маститые производители ПО, такие как Microssoft, Oracle и др. За ними поспешили появиться свободно распространяемые гипервизоры: KVM и Xen. Так началась эпоха тотальной виртуализации.
Отказоустойчивость
Когда Билл Гейтс в 1999 году написал свою известную книгу о "Бизнес со скоростью мысли" о корпоративных информационных системах (ИС), то еще далеко не все представляли себе, насколько глубоко войдут в нашу жизнь информационные технологии, и насколько критичным будут даже незначительные перебои в их работе.
Для формализации, регламентирования и стандартизации методов работы ИТ-служб, в начале 1990х годов был разработан стандарт оказания ИТ-услуг ITIL. Он развивался параллельно с ИТ-технологиями и сегодня, спустя 20+ лет, мы имеем достаточно возможностей обеспечения абсолютно непрерывной работы любых информационных процессов и сервисов.
Главным критерием такой непрерывности, является понятие отказоустойчивости, т. е. продолжение работы сервисов в случае выхода из строя оборудования или возникновения какого-либо сбоя в работе систем. Основным инструментом для реализации данной задачи является как раз виртуализация.
Существуют различные варианты виртуализации. Здесь мы говорим о полной виртуализации, на уровне ОС.
Гипервизор - сервер со специальным программным обеспечением, обеспечивающий возможности виртуализации. В более узком смысле гипервизором могут называть само ПО виртуализации.
Виртуальная машина (ВМ) - виртуальный компьютер, работающий на гипервизоре. В простом случае представляет из себя файл, имитирующий жесткий диск (например .vhd) и несколько файлов конфигурации.
Современные гипервизоры могут быть развёрнуты в виде кластера - на группу одинаковых компьютеров (серверов), которые равномерно распределяют одни и те же задачи между собой. Таким образом при выходе из строя одного из компьютеров, гипервизор вместе с работающими на нём ВМ, будет функционировать как ни в чем ни бывало, а нагрузка с отказавшего сервера распределится на остальные.
Бюджетным аналогом кластеризации является технология репликации ВМ. В этом случае не обязательно иметь идентичное "железо", достаточно двух настроенных гипервизоров, один из которых будет содержать оригинальную ВМ, а второй её автоматическую резервную копию. В случае выхода из строя основного сервера, запуск резервной ВМ будет произведён в считанные минуты или даже секунды, с минимальной потерей данных.
Облачные технологии
Крайней формой развития современных технологий, и не только виртуализации, являются так называемые "облачные технологии". Это ситуация, когда абсолютно вся инфраструктура является виртуальной, причем не только для конечного пользователя, но и для ИТ-службы поддерживающей пользовательские сервисы.
По вине виртуализации, современная компьютерная инфраструктура стала оперировать огромными потоками данных. Львиную доля в которых занимают не непосредственная информация пользователей, а сопутствующие данные технического характера. Это накладывает чудовищную нагрузку на серверы и сети, требует очень высокой квалификации ИТ-специалистов, сложного ПО. Поэтому облачные решения стремительно завоёвывают популярность. Ведь предлагающие их дата-центры, оснащены самым лучшим оборудованием и техническими решениями, которые даже не снились простым смертным, но позволяют обеспечивать практически абсолютную отказоустойчивость.
Ответ на вопрос
Чтобы понять для чего нужна виртуализация, мы бодро пробежали по главным связанным с ней моментам. Отметили этапы и уровни этой технологии. Коснулись главной задачи системного администрирования и устроили миниатюрный исторический экскурс. Но.. мы не поговорили о главной движущей силе современного мира - о деньгах. Мы обитаем в капиталистическом мире, где прибыль и убыток ставятся во главу угла. Если ИС призваны сокращать издержки и увеличивать прибыль, то отказоустойчивость нужна для сокращения и устранения убытков, вызванных простоем или потерей данных.
Современное компьютерное оборудование стоит немалых денег, поэтому прежде, чем принимать решение о его покупке, об использовании тех или иных технологий, необходимо сделать подсчет экономической целесообразности того или иного решения. Необходимо для себя определить насколько те или иные риски вероятны и убыточны для организации, и исходя из этого делать соответствующие выводы. К примеру, недоступность базы данных крупной торговой сети может стоит в час миллионов рублей, а какое-то небольшое предприятие может даже не заметить отказ сервера в течении целого дня. Поэтому, как вы уже смогли догадаться, однозначного ответа на этот вопрос, в реальности не существует. Всё зависит лишь от соотношения параметров: важности той или иной информации, вероятности и цене рисков связанных с её потерей, и стоимости того или иного решения виртуализации.