четверг, 24 июня 2010 г.

Обратная сторона "облака"

Хочу сообщить, что 1го июля в Москве CNews Conferences и CNews Analytics проводят круглый стол «Управление непрерывностью бизнеса: лучшие ИТ-решения».

Я там буду выступать с докладом "Обратная сторона "облака", и расскажу то, о чем вендоры вам не хотят говорить.

Security: сеть для VMotion / Fault Tolerance / IP Storage

Как построить безопасную сеть и как распределить VLAN'ы и физические адаптеры?

Прежде всего нужно подчеркнуть особенности VMotion, Fault Tolerance и IP Storage трафика - он нешифрованный и передается в прямом виде. Что из этого следует?

Все три типа трафика должны быть изолированы от общей сети, в которую входит VM Network. Кстати, это и к вопросу о выборе между ESX Software iSCSI и Guest Software iSCSI. При прослушке трафика можно получить в прямом виде состояние оперативной памяти (VMotion) вместе с ключами и паролями/хэшами паролей, и дисковый ввод/вывод вместе с ценными данными.

Отделение всех трех типов трафика от общей сети является ключевым моментом в предотвращении атаки. Хорошо, но нужно ли разделять их между собой? Строго говоря, рекомендуется. Проведу простую аналогию - стоит ли хранить патроны и оружие в одном сейфе или в разных, чтобы обезопасить детей? Будет значительно труднее собрать оружие и выстрелить при разных сейфах.
С другой стороны, ответ на этот вопрос сильно зависит от степени ценности данных. В общем случае особого беспокойства нет, и все три типа трафика можно комбинировать на одном физическом коммутаторе или даже в одном VLAN. Более того, подобная конфигурация может сохранить нам порты и упростить конфигурацию. При полном отделении трафика на физическом уровне требуется как минимум три физических порта, но их ведь нужно еще и резервировать -> уже 6 портов. Пожертвовав полным физическим отделением, можно обойтись всего 3мя - поставив их по кругу для всех 3-х VMkernel в active / standby.

среда, 23 июня 2010 г.

StarWind 5.4 beta

StarWind открыла программу бета-тестирования последней версии своего iSCSI таргета, 5.4
Что нового:
  • Добавлено кеширование. Поддерживаются режимы кеширования Write-Through и Write-Back.
  • Добавлен функционал автоматической синхронизации. Когда HA нода становится активной, то в случае включенной опции автосинхронизации она автоматически синхронизует данные дисков со второй НА нодой и приводится в онлайн.
  • Убран лимит на максимальный раздел диска в 2ТБ.
  • При установке в Windows Firewall автоматически добавляется разрешающее правило.

Форма регистрации на бета-тестирование:

Имя: *
E-mail: *  :
Телефон: *
Компания: *
 
   

понедельник, 21 июня 2010 г.

DRS Deepdive

Эта статья затрагивает две основные функции DRS:
  • Балансировка нагрузки в несбалансированном кластере
  • Размещение ВМ при включении
Я не буду затрагивать пулы ресурсов (resource pool) совсем, поскольку и так достаточно их описаний. Более того, масса полезной информации содержится в Resource Management Guide, и именно с этого документа нужно начинать.

Балансировка нагрузки

Прежде всего VMware DRS проверяет уровень загруженности кластера раз в 5 минут. Если обнаруживается несбалансированность, DRS попытается реорганизовать кластер при помощи VMotion и достичь состояния сбалансированности. Возникает вопрос: а как же отличить сбалансированный кластер от несбалансированного?

vSphere 4.1: HA - что нового

Просочилась информация о новых фишках HA в vSphere 4.1

Теперь для ВМ можно будет установить мягкие и жесткие предпочтения по хостам. В случае с "мягким предпочтением" ВМ будет помещена на указанный хост при его доступности, но сможет быть перезапущена и на другом удовлетворяющий условиям хосте. "Жесткое предпочтение" ограничивает список хостов для перезапуска ВМ, и при недоступности этих хостов ВМ не будет перезапущена.

пятница, 18 июня 2010 г.

PowerShell скрипт для контроля работы vCenter

Вам случалось обнаруживать, что после очередного ребута по причине установки обновлений Windows или по любой другой причине vCenter не запустился? Anders Mikkelsen поделился секретом - контролировать vCenter, как впрочем и любой другой сервис, можно при помощи всемогущего PowerShell.

Просто поставьте в расписание запуск раз в 15-30 минут. При возникновении проблем придет электронное письмо.

Тушим все по команде UPS

Один из часто задаваемых вопросов - поддерживается ли работа vSphere с UPS? К сожалению нет, и интеграцию придется делать вручную.
Можно использовать например ghettoUPSHostShutdown.pl, но можно использовать и PowerCLI.

Что для этого требуется:
  1. Иметь Windows хост (или ВМ), следящую за ИБП. Как вариант - повесить эту задачу на vCenter (если он физический).
  2. При пропадании питания вызвать скрипт, который погасит инфраструктуру.
  3. При восстановлении питания поднять инфраструктуру, а затем ВМ.

четверг, 17 июня 2010 г.

vSphere PowerCLI: урок 4

В этом уроке я продолжу рассказ о фундаментальных понятиях PowerShell. Хотя все это должны быть про PowerCLI, без понимания PowerShell ничего вразумительного не может получиться. Впрочем, я попробую включить сюда пару командлетов PowerCLI.

Переменные в PowerShell позволяют сохранять объекты или детали в отдельной области памяти для последующего использования. Без переменных будет практически невозможно выполнять вычисления в PowerShell и даже работать с отфильтрованными данными. Особенно важным использование переменных становится при управлении виртуальной инфраструктурой в PowerCLI при возрастании объемов данных и количества объектов (например ВМ).

HA Deepdive: Host Selection

  1. Slots
  2. Primary nodes
  3. Isolation
  4. Host selection
При разговоре об HA возникает резонный вопрос: как HA выбирает хост(ы) для перезапуска ВМ с умершего хоста? Именно этот вопрос я задал Данкану Эппингу (Duncan Epping).

Все достаточно просто и вместе с тем немного сложно. HA мониторит незарезервированные ресурсы каждого хоста в кластере, и соотв. хост с наибольшими незарезервированными ресурсами становится первым на очереди. Необходимо отдельно подчеркнуть, что мониторингом занимаются HA-агенты, а не DRS. Как известно, DRS - это часть vCenter, в то время как HA работает независимо от vCenter.
Арифметика, связанная со слотами, в данном случае также не при чем, слоты используются только для контроля ресурсов кластера и работы Admission Control.

Также необходимо добавить, что HA проверяет совместимость хоста с виртуальной машиной, а именно наличие на хосте требуемой портгруппы и доступа к соответствующем datastore, и лишь потом запускает ВМ на хосте.

В общем виде процесс выглядит так:
  1. Упорядочить доступные хосты по количеству незарезервированных ресурсов
  2. Проверить совместимость (сеть / datastore)
  3. Старт!
  4. Upd: Уточнение. Для каждой ВМ HA выбирает хост независимо, причем в 4.0 выбирался хост с наибольшим количеством незаразервированных ресурсов, а в 4.1 в алгоритм выбора хоста добавился критерий "с наименьшим количеством ВМ, подлежащих рестарту", чтобы обеспечить лучшее распределение ВМ по хостам. Разумеется, данный алгоритм выбора работает только для кластеров, в которых не указан конкретный failover хост.

среда, 16 июня 2010 г.

Какой функционал вы бы хотели видеть в будущих продуктах VMware?

Команда VMware Россия разместила опрос: что вам как пользователям не хватает в продуктах VMware?

Новые фичи делятся по категориям:
  • Desktop (рабочие места)
  • Cloud (облачные вычисления)
  • Management & Automation (продукты семейства vCenter)
  • Core (платформа виртуализации vSphere)
На следующей неделе список top10 в каждой категории будет представлен вниманию разработчиков. Возможно именно ваши голоса решат, что войдет в следующие релизы.

Red Hat Enterprise Virtualization: Storage Freedom

Возможно вы слышали, что Red Hat пытается вывести свою платформу RHEV на рынок, рассказывая старую сказку про "не будьте зависимы от одного вендора". Президент Red Hat заявил:
"... заказчики не хотят одну платформу. Они хотят две."
Давайте оставим дискуссию на тему нескольких гипервизоров и управления ими на потом, и рассмотрим тему нескольких хранилищ данных. Есть инфраструктуры, где жестким стандартом является единственный тип хранилищ, но в большинстве все же имеет смысл использовать различные хранилища, в зависимости от задачи: Fibre Channel, iSCSI и/или NFS.

Red Hat Enterprise Virtualization: HA [ha ha]

Eric Gray снова радует подробностями о реализации платформы Red Hat Enterprise Virtualization.

RHEV имеет функцию отказоустойчивости, аналогичную VMware HA. Что говорит нам об этом Red Hat?



Но...

вторник, 15 июня 2010 г.

Конфигурация отказоустойчивого кластера VMware vSphere

Один из часто задаваемых вопросов — как построить отказоустойчивый кластер vSphere? На самом деле это очень просто, компания VMware прилагает огромные усилия к тому, чтобы конфигурирование ее продуктов и управление ими не занимали слишком много времени и сил у администраторов, и не требовалось запоминать трехэтажные комбинации команд. В частности создание кластерной файловой системы занимает буквально два-три клика мышкой, а дальше она автоматически подключается ко всем хостам, у которых есть доступ к соответствующему дисковому массиву. (Читать целиком)

Специально для ITBand.ru, с картинками :)

Hyper-V R2 SP1 - Dynamic Memory

Появилась информация о громком технологическом "прорыве" Microsoft - Dynamic Memory. Желающие могут скачать официальную презентацию с сайта TechEd.

Я расскажу о том как это работает и почему маркетинг Microsoft снова вешает лапшу на уши совершенно не стесняясь.

Dynamic Memory = Balloon + Hot-Add. Вот и весь "прорыв". Balloon у VMware существует с незапамятных времен, Memory Hot-Add появилась с выходом vSphere, год назад. Единственное, что добавили в MS - это автоматический Hot-Add.

Итак, по заверениям MS, Dynamic Memory - это НЕ overcommitment. Правда? Очень забавно. Приводится пример, когда две машины используют память попеременно, и сначала им дается дополнительная память через Hot-Add, а потом отбирается баллонным драйвером.
Overcommitment, согласно определения, когда сумма Configured Memory больше физической памяти на сервере. Поэтому Dynamic Memory - НЕ overcommitment только в одном случае, если после всех Hot-Add все еще остается свободная физическая память. Но в таком случае зачем нужен баллонный драйвер? Момент, когда он включается - это нехватка физической памяти, когда нужно отобрать немножко физической памяти у одной машины и отдать другой.
Предположим, для сохранения условия "НЕ overcommitment", что баллонный драйвер будет включаться автоматом, после того как пиковая нагрузка миновала и машина вернулась к обычному потреблению памяти. Однако поскольку Hot-Remove для памяти еще не придумала даже Microsoft, со всей ее армией инженеров и подробным знанием внутренностей Windows, параметр Configured Memory остается увеличенным, хотя SCVMM и будет нам показывать, что выделение памяти уменьшилось. И поскольку "НЕ overcommitment = SUM(Configured Memory) < Physical Memory", включение баллонного драйвера абсолютно бессмысленно.
Вернемся к презентации - показывается, что одной машине надо памяти, и память отбирается у другой машины. Но простите, это же и есть классический Memory Overcommitment через Balloon! Если мы НЕ в состоянии memory overcommitment, то каждой машине хватает физической памяти и ее просто не нужно ни у кого отбирать.

Какой из этого вывод? Очевидный. Microsoft потихоньку догоняет VMware по функционалу, хотя все еще остается в положении догоняющего. А маркетинг MS напускает побольше FUD'а, вводит новые термины, означающие то же, что и раньше, но другое. Не можешь предложить что-то технологическое - запутай, запугай.

пятница, 11 июня 2010 г.

VMware vSphere 4.0 update 2

День релизов. Вышел update 2 к VMware vSphere.

В vCenter Server 4.0u2 улучшена поддержка гостевых ОС:
  • Windows XP Professional SP2 (x64) serviced by Windows Server 2003 SP2
  • SLES 11 (x32 and x64)
  • SLES 10 SP3 (x32 and x64)
  • RHEL 5.5 Server Platform (x32 and x64)
  • RHEL 5.4 Server Platform (x32 and x64)
  • RHEL 4.8 Server Platform (x32 and x64)
  • Debian 5.0 (x32 and x64)
  • Debian 5.0 R1 (x32 and x64)
  • Debian 5.0 R2 (x32 and x64)

Для ESX/ESXi 4.0u2:
  • Добавлена поддержка Fault Tolerance для процессоров Intel Xeon 56xx, Intel i3/i5 Clarkdale, Intel Xeon 34xx Clarkdale
  • Добавлена поддержка IOMMU для AMD Opteron 61xx и 41xx
  • Улучшена утилита esxtop/resxtop - теперь поддерживается мониторинг NFS датасторов
  • Добавлена поддержка для гостевой ОС Ubuntu 10.04
Ну и, разумеется, багфиксы.

VMware Data Recovery 1.2

Вышла новая версия VMware Data Recovery.

Релиз включает в себя кучу багфиксов, а так же:
  • клиент для восстановления файлов из ВМ с Linux
  • возможность запускать до 10 экземпляров VDR с одним vCenter
  • быстрое переключение между экземплярами VDR в плагине для клиента vSphere

среда, 9 июня 2010 г.

Программа VMware User Group Нижний Новгород 2010-1

Коллеги, готова программа докладов на встречу VMUG NN 25 июня.

  1. Облачные вычисления - Антон Жбанков
  2. Почему NetApp идеально подходит для VMware - Игорь Сызько, NetApp
  3. Безопасность виртуальной инфраструктуры - Антон Жбанков, Сергей Щадных
  4. Продукты Veeam для облегчения жизни администратору VMware - Дмитрий Блейзер, Veeam
  5. Технические аспекты привычных технологий - Антон Жбанков
  6. Поговорим о новом функционале VMware vSphere 4.1 / View 4.5 - Дмитрий Тихович, VMware
  7. Реализация проекта виртуализации в условиях ограниченного бюджета - Сергей Щадных

Участие бесплатное, но регистрация на мероприятие обязательна для всех участников. Регистрируемся здесь.

Подробности о месте проведения придут вам по электронной почте с подтверждением регистрации ближе к дате мероприятия.

вторник, 8 июня 2010 г.

VMware vExpert 2010

Награды нашли героев, и очень приятно оказаться в одном ряду уже второй год подряд с такими "монстрами" и гуру как Luc Dekens, Tom Howarth, Eric Sloof и Mike Laverick.

Также хочу поздравить остальных vExpert'ов из России, а именно Михаила Михеева, Марию Сидорову, Андрея Вахитова и Александра Самойленко. Разумеется, и Михаила Коротько из Казахстана.