сервера применительно к настольным системам. При этом обмен данными между сервером и терминалом выполняется с помощью патентованного протокола UXP, оптимизированного для обмена мультимедийной информацией. В целом очевидно, что NComputing уступает по универсальности (ограниченное число терминалов, подключаемых только в локальных сетях) традиционному варианту терминалов на базе ПК, но в то же время может эффективно применяться во многих реальных ситуациях.

Рис. 5. Схема терминального доступа в варианте NComputing

От виртуализации компьютеров к управлению виртуальными средами

Еще два-три года назад на рынке средств виртуализации произошли некоторые качественные изменения, позволившие аналитикам говорить о начале нового этапа его развития, названного Virtualization 2.0. В целом это вполне соответствовало действительности, поскольку заказчики, освоив технологии виртуализации отдельных серверов, как раз тогда стали переходить к решению задачи комплексного управления виртуальной ИТ-инфраструктурой в целом. В конце 2006 г. IDC сформулировала свое представление об этапе Virtualization 2.0, на котором компании, решив в основном вопросы эффективности использования вычислительных ресурсов, сконцентрируются на вопросах повышения надежности и доступности сервисов. Правда, эти слова IDC относились к американскому рынку, у нас этап V2.0 только еще наступает.

Мы со своей стороны отметим и то, что отличие V2.0 от версии 1.0 заключается также в характере решаемых организациями задач выбора методов реализации ИТ-проектов. Если на первом этапе они выбирали между вариантами традиционных физических и виртуализированных серверов, то теперь они ищут наиболее оптимальное решение в рамках виртуализационного варианта. А такая задача не очень проста, поскольку появился сам выбор: в 2007–2008 гг. существовавшая ранее монополия VMware была нарушена выходом на рынок серверной виртуализации целой группы новых серьезных участников рынка во главе с Microsoft.

Итак, одна из ключевых идей (и преимуществ) виртуализации – переход от статической структуры ЦОДа с применением исключительно физических серверов к динамической организации на базе смешанной виртуально-физической инфраструктуры (рис. 6). Отметим, что использование средств виртуализации не отменяет (по крайней мере в видимой перспективе) необходимости в физических серверах (один компьютер – одна ОС). Причина вполне ясна: наряду с достоинствами (гибкость управления, оптимизация нагрузок) виртуальные машины имеют и недостатки по сравнению с автономными ОС (некоторые ограничения в использовании ресурсов, снижение производительности, возможные проблемы с совместимостью).

Рис. 6. Организация динамической виртуально-физической ИТ- инфраструктуры

Посмотрев на структуру такого динамического ЦОДа, легко оценить важность задачи управления всей этой сложной системой. До сих пор обсуждение проблем виртуализации сводится преимущественно к теме среды функционирования ВМ (в частности, гипервизоров). Однако надо понимать: гипервизоры – это хотя и базовый, но всего лишь один из компонентов ПО виртуализации. Сейчас на первый план выходят средства управления.

Cloud-ресурсы оплачиваются клиентом по мере их использования, а средства выполнения предоставляемых услуг скрыты от заказчика.

ПО управления содержит две основные категории инструментов:

• средства управления виртуальными машинами внутри отдельного сервера;

• средства управления системой виртуальных и физических серверов в целом.

Здесь стоит обратить внимание на то, что первая категория инструментов довольно жестко связана с конкретным гипервизором и обычно поставляется его производителем, а вторая – это сфера пересечения интересов поставщиков виртуальных сред и независимых разработчиков.

Сложность задачи управления динамической ИТ-инфраструктурой легко себе представить, если помнить, что речь идет о сугубо неоднородной системе, в которой имеется несколько групп поставщиков (оборудования, ОС, приложений, ПО виртуализации), причем в каждой группе существует своя неоднородность (например, могут использоваться виртуальные среды разных разработчиков).

Понятно, что в этой ситуации независимые (от конкретных гипервизоров) поставщики (такие, как HP, IBM, CA) могут иметь определенные преимущества в сфере управления ИТ по сравнению с теми, которые заняты продвижением своих базовых технологий.

И дальше – в облака

В 2008 г. стало также очевидно, что тематика серверной виртуализации теперь рассматривается в контексте реализации концепции «облачных» вычислений (Cloud Computing), что позволило аналитикам говорить о грядущем наступлении нового этапа – Virtualization 3.0.

Напомним, что по определению Википедии, Cloud Computing – это стиль разработки и использования компьютерных технологий (вычислений), при котором динамично масштабируемые ресурсы предоставляются через Интернет как сервис.

Примерно аналогичную формулировку приводит Gartner, обращая внимание на высокую масштабируемость ИТ-ресурсов и на то, что средства выполнения предоставляемых услуг скрыты от заказчика, а сами Cloud-ресурсы оплачиваются клиентом по мере их использования. Подчеркивается также, что реализация Cloud Computing базируется не на одной, а на множестве отдельных технологий. Важный аспект модели облачных вычислений – возможность оптимального сочетания использования внутренних и внешних вычислительных сред, между которыми можно легко перемещать ИТ-ресурсы. Ясно, что виртуализация – это как раз технология, которая обеспечивает переход к такой облачной организации ИТ. Именно на это делает акцент виртуализационный лидер компания VMware.

Действительно, если приложения переведены в среду виртуальных машин, то дальше их можно легко перемещать между физическими серверами, оптимизируя балансировку нагрузки оборудования или проведения профилактических работ. Но оторвав приложения от конкретных компьютеров, их можно переместить на исполнение в какой-то внешний ЦОД на условиях аутосорсинга (если провайдер предлагает выгодные условия аренды, а коммуникационные возможности позволяют).

Если компании нужно развернуть новые сервисы, то у нее появляется реальный выбор – наращивать ли собственную ИТ-инфраструктуру или арендовать нужные ресурсы в облаке. Однако виртуализация – это не единственный подход к реализации облачной модели и, возможно, не самый перспективный. Тут можно вспомнить, что само появление виртуализации в свое время было во многом связано с необходимостью решения задачи реализации унаследованных приложений. Вот и описанный выше механизм построения облака – это попытка переноса туда традиционной статической модели организации ИТ.

Именно на этом настаивают компании Google и Amazon, представители которых утверждают, что для реализации настоящих современных облаков нужно создавать системы на качественно новых архитектурных принципах, а в этом случае никакая виртуализация не нужна вообще.

Их слова можно проиллюстрировать историческим примером перехода от файл-серверной модели к клиент-серверной схеме: для быстрого решения такой задачи можно использовать механизм терминального доступа, но более эффективный способ – создание нового приложения в настоящей клиент-серверной архитектуре.

Для реализации настоящих «облаков» нужны системы на качественно новых архитектурных принципах.

На последней конференции VMworld Пол Мариц, руководитель VMware, фактически предложил сообществу поставщиков средств виртуализации объединиться вокруг тезиса о том, что без виртуализации решить задачи масштабирования и доступности ресурсов в любом случае не удастся, выступив единым фронтом против «чужаков» из стана поставщиков Интернет-услуг.

Удастся ли сформировать такой единый фронт – сложно сказать. Так, Microsoft придерживается иной точки зрения на реализацию облаков, которую можно назвать промежуточной между позициями VMware и

Добавить отзыв
ВСЕ ОТЗЫВЫ О КНИГЕ В ИЗБРАННОЕ

0

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Отметить Добавить цитату