среда, 30 декабря 2009 г.

Так ли бесплатен Hyper-V и так ли дорога vSphere?

Не утихают споры о нужности / ненужности Memory Overcommitment. Сторонники Hyper-V утверждают, что все эти модные штучки с памятью не нужны, цена лицензии VMware выше, чем стоимость памяти, которая сейчас стоит "like a trash".
Лично мне захотелось посчитать и получить цифры, которые не вешают лапшу на уши как маркетинг.

Методика расчета

- считается полная стоимость системы, включая железо и лицензии.
- не считается стоимость СХД, подразумевается, что СХД в обоих случаях будет использоваться и стоить одинаково.
- предполагается, что на всех хостах будет достаточное количество ВМ с Windows и считается стоимость Windows Datacenter для всех хостов.
- цены взяты рекомендованные вендорами для US.

Считается, что проект "Виртуальные машины" живет на полностью выделенном для него оборудовании. В качестве железа взяты блейд-серверы HP BL490c G6, СХД подключается по Fibre Channel.

пятница, 25 декабря 2009 г.

VMUG 2010-1

Коллеги, мы начинаем подготовку к первой встрече VMware User Group Russia в 2010 году. Планируется, что встреча пройдет в конце февраля-начале марта в Москве.

Мы всегда рады новым людям и новым докладам, так что если вы готовы выступить и поделиться опытом, то мы это будет только приветствовать. Призы за активное участие будут!

Кому интересно поделиться своим опытом в небольшом докладе - с радостью готовы пообщаться, пишите мне или Михаилу Михееву.

среда, 23 декабря 2009 г.

VMware Tools: Unmanaged

Вы привыкли уже, наверное, видеть статусы VMware Tools: OK, Not Runnning и даже Out of Date. Однако вас может ждать небольшой сюрприз и после очередного апгрейда / установки последних патчей вы увидите новый статус: Unmanaged.



Не следует беспокоиться, этот статус специально предусмотрен для тех ВМ (Appliance), самостоятельный апгрейд VMware Tools для которых не рекомендуется. Например, VMware Data Recovery. Если будет требоваться обновление, то VMware просто выпустит новую версию модуля (Appliance).

Thnx to Carlo Costanzo

пятница, 18 декабря 2009 г.

VCP 4

Passed.

Спасибо российскому представительству VMware и лично Ольге Масек, а также учебному центру Микроинформ.

вторник, 15 декабря 2009 г.

Производительность дисков в ВМ

Часто спрашивают о производительности дисков, мегабайтах в секунду и так далее. Решил проверить на практике, насколько производительны диски под ВМ, запустил IOMeter для VMDK дисков, лежащих на VMFS разделах на разных доступных мне хранилищах. Теста проводилось 3 - на максимальную скорость линейного чтения и записи блоками по 32 кБ, и полностью случайные чтение/запись в пропорции 50/50 блоками по 4 кб как приближенный к реальности тест. Для последнего теста обратите внимание, что дисковая система полностью загружена по IOPS, поэтому значения скорости в мегабайтах очень просели.

И опять же, обращаю ваше внимание, что это не тесты сравнения протоколов, это просто разные хранилища, с разной конфигурацией. Подключение по iSCSI НЕ оптимизировалось в данном случае никак для достижения максимальной скорости и минимальных задержек.

ESX 4.0 u1 - HP BL460c G1, 2 * Xeon 5365 3GHz
Fiber Channel - 4 Gbit, без балансировки нагрузки, все по одному пути
iSCSI - ESX software iSCSI, 1 Gbit

Результаты тестов IOMeter. Конфигурация ВМ: 1 vCPU (1 ядро Xeon 5365 3GHz), 768 MB RAM, Windows 2003 32bit. Результаты, разумеется, на EagerZeroedThick дисках, усредненные по 3-5 минут работы теста.

пятница, 27 ноября 2009 г.

Грабли: Performance Overview + Oracle DB

Продолжаем тему граблей, щедро расставленных и разложенных в самых неожиданных местах.
Сегодня грабли для тех, кто использует Oracle DB для vCenter.

Знакомая картинка, не правда ли?


Решение было под самым носом, как всегда.

среда, 25 ноября 2009 г.

vSphere 4u1: EVC

О том, что вышел первый апдейт к vSphere, не написал только ленивый :)

Но далеко не все новые фишки 4u1 были указаны в what's new. И в частности одна из самых вкусных - это изменение в EVC.

Напомню, EVC (Enhanced vMotion Compatibilty) - режим работы кластера, при котором CPUID Mask для всех ВМ выставляется автоматически. И соотв. можно больше не задумываться о проблемах миграции машин между хостами с разными поколениями процессоров, все будет сделано за вас. Основное неудобство - EVC можно было включить только для кластера, в котором нет ни одной включенной ВМ.

В 4u1 EVC для кластера можно включить даже если есть работающие ВМ. Гип-гип-УРА!

вторник, 24 ноября 2009 г.

Хорошие новости от Starwind

Компания Starwind совершенно бесплатно готова предоставить лицензию любому обладателю звания vExpert, VCP или MCP. В том числе лицензию на последнюю разработку, Starwind 5.0 с высокой доступностью.

Если у вас статус VCP, то пишите на vmware@starwindsoftware.com, MCP пишут на hyper-v@starwindsoftware.com.

четверг, 19 ноября 2009 г.

ESX vs Hyper-V: горячее подключение/отключение дисков

VMware vSphere 4 поддерживает несколько вариантов горячего управления дисковой подсистемой:
  • Расширение VMFS разделов
  • Горячее расширение виртуальных дисков
  • Горячее подключение/отключение виртуальных дисков
Даже если с местом неожиданно становится туго, то эти технологии позволяют быть проактивным и решать проблемы до того как кто-либо заметит. Выглядит процесс примерно так:
  • Выделить дополнительное место / физические диски на SAN для соответствующего LUN
  • Расширить VMFS Datastore, используя выделенное только что место
  • Расширить существующие или создать новые виртуальные диски
  • Расширить тома в соответствующих ВМ 
Все это без перезагрузки, с нулевым простоем.

понедельник, 16 ноября 2009 г.

Грабли: отваливаются бэкапы, миграция и клонирование ВМ etc

Проблема: начали отваливаться бэкапы в процессе, невозможно склонировать ВМ или перенести на другой datastore. Файловые операции в консоли ESX отваливаются по таймауту.

Причина: скорее всего одна из ВМ решила полностью нагрузить дисковую систему и в частности datastore, на котором и наблюдаются проблемы. Напоминаю, что нагрузка на дисковую систему измеряется не в сотнях мегабайт в секунду, а в операциях в секунду - IOPS.
Как пример из реальной жизни - машина с syslog сервером, из-за которой все и случилось, генерировала примерно 1.5-2 мегабайта в секунду. Вроде бы смешная цифра для Fibre Channel дисковой полки с 10 дисками, но эти 2 мегабайта в секунду с другой стороны равнялись 1200 IOPS - а больше дисковая полка просто не могла выдать.

Решение: размещение выскоконагруженных по дисковым операциям ВМ на выделенных datastore, размещающихся на выделенных дисковых группах. Почему критичны выделенные дисковые группы в данном случае? При размазанных дисковых группах, когда LUN'ы нарезаются на одной большой дисковой группе, стоит вырасти дисковой нагрузке от одной ВМ - ВСЕ datastore на LUN'ах с этой дисковой группы просядут.

Как отследить машинку-негодяйку? В первую очередь esxtop, разумеется. Но значительно удобнее в таких случаях использовать Veeam Monitor, у которого, кстати, есть Free Edition.

пятница, 13 ноября 2009 г.

Грабли: vCenter 4 и ESX3 - не хочет работать Storage VMotion

Дано: vCenter 4 управляет смешанной инфраструктурой из ESX 4 и 3.5, все лицензии Enterprise. ESXi 3.5 - standalone, не в кластере.
Проблема: невозможно совершить Storage VMotion для ВМ на ESXi 3.5, поскольку "VMotion is not licensed for host".

Возникает вопрос - как это нет лицензии, у меня же Enterprise?!

Решение: для VMkernel интерфейса включить поддержку VMotion, даже если мы не собираемся мигрировать машины на другие хосты. VMotion для 3.5 является отдельным продуктом и требует свою собственную лицензию, и потому соотв. изначально запрашивается лицензия только ESX Standard + vCenter Agent. Чтобы хост получил лицензию VMotion, он должен ее сначала попросить у сервера лицензий, а если нет VMotion интерфейса, то и просить нечего :)

четверг, 5 ноября 2009 г.

Все больше и больше слоев FUD'а

Невероятно, но старая байка про то, что VMware добавляет еще один слой, до сих пор рассказывается Microsoft в их Virtualization Comparison Brochure. Довольно удивительно и совершенно нечестно - использование термина "слой" лишь для порядка следования в иерархии, но не в смысле объема. И что, черт побери, слой виртуализации делает поверх слоя приложений?


В данном случае Microsoft хочет доказать, что если у вас нет виртуализации VMware, то нет и VMware. В общем-то соответвует действительности, но слоев на самом деле столько же.
Я взял право сделать несколько поправок к материалу Microsoft и рад показать еще три более корректных варианта представления слоев виртуализации.

вторник, 27 октября 2009 г.

Сводная таблица по виртуальным дискам VMware

Thick
ZeroedThick
EagerZeroedThick
Thin
Время создания
Быстро
Как Thick
Очень медленно, время прямо пропорционально размеру
Очень быстро
Выделение блоков
Полностью при создании
Как Thick
Как Thick
Выделение при запросе к блоку виртуального диска, нулевой размер при создании
Расположение блоков
В связи с полным выделением блоков при создании, вероятнее всего блоки будут располагаться последовательно
Как Thick
Как Thick
Блок выделяется при обращении, поэтому расположение блоков может быть любым
Очистка выделенных блоков
Нет
Блоки очищаются при первом обращении
Блоки очищаются при создании диска
Блоки очищаются при выделении
Скорость
Максимальная всегда
Вначале сниженная ввиду очистки блоков при первом обращении
Как Thick
Снижена чуть больше, чем у ZeroedThick ввиду выделения и очистки блоков при первом обращении
Безопасность
Небезопасен, ВМ может получить доступ к данным, располагавшимся ранее на месте диска
Безопасен
Безопасен
Безопасен

понедельник, 26 октября 2009 г.

Использование non-persistent дисков

Проблемы безопасности, связанные с использованием непостоянных (non-persistent) дисков, заключаются в том, что злоумышленник может откатить выполненные действия или скрыть следы своего присутствия простым выключением машины. При этом уязвимость обнаруженная злоумышленником в виртуальной машине останется и может быть использована повторно в произвольный момент времени по его усмотрению. Угроза же заключается в том, что администратор может и не узнать, что машина попала под контроль злоумышленника.

Использование виртуальных машин с этим типом дисков может привести к затруднению проведения расследований инцидентов в следующих случаях:
1. Ошибочные или некомпетентные действия пользователя в процессе эксплуатации виртуальной машины (не носящие злого умысла).
2. Проникновение на виртуальную машину вредоносного кода, не детектируемого средствами антивирусной защиты вследствие его новизны или заказного характера, с последующим выполнением вредоносной активности.
3. Умышленные злонамеренные действия пользователей, возможно, не обладающих достаточным уровнем для уничтожения всех следов своей деятельности в случае использования обычных дисков (persistent, по умолчанию).

Во всех случаях реализации угрозы после выключения виртуальной машины, использующей диски без сохранения состояния, признаки и следы вредоносного воздействия на саму виртуальную машину и/или информационную среду, на которую осуществлялись атаки с этой машины (за исключением аномалий, обнаруженных сетевыми и хостовыми IPS), будут безвозвратно уничтожены, что затруднит анализ событий и предотвращение их повторения в будущем.

Поэтому рекомендуется полный отказ от использования непостоянных дисков, или использование их только в тестовых средах или средах разработки (эта мера так же рекомендована вендором - стр 6. VMware Security Hardening).

пятница, 16 октября 2009 г.

HA Deepdive: Slots

  1. Slots
  2. Primary nodes
  3. Isolation
  4. Host selection
Многие, пожалуй, встречались с ситуацией, когда в HA-кластере ресурсов на первый взгляд предостаточно, а HA ругается на нехватку ресурсов.
Это происходит по причине того, что у HA своя собственная арифметика, основанная на слотах.

Что такое слот? Слот - это место под условную машину, и возможное количество ВМ в кластере определяется количеством слотов под них. HA берет самый большой резерв по процессорам и памяти в кластере и устанавливает в качестве размера слота (память + overhead). Если нет резервов, то процессорная мощность в слоте устанавливается в 256 MHz, а память в слоте считается по размеру наибольшего overhead.

Как определяется колчиство слотов на хосте? Делением. При этом, если количество процессорных слотов получается 25, но только 5 слотов по памяти, то считается, что слотов на хосте 5. А далее слоты всех хостов просто суммируются - в итоге мы имеем емкость HA кластера.

Что в этом случае происходит с несбалансированными кластерами? Несбалансированным кластером, например, является кластер из 5 хостов, в котором на 4х хостах по 16ГБ памяти, а на 5м - 32.

Одна из ВМ сконфигурирована с 4 vCPU / 4 GB, и поскольку резервов нет, то слоты памяти рассчитываются по оверхеду данной машины - 325 MB.



Что в итоге дает по 50 слотов для esx01 - esx04, и 100 для esx05. При включенном Admission Control берется худший сценарий и рассчитывается все на случай падения самых мощных хостов. Т.е. при установленном "Host failures cluster tolerates: 1" мы получаем 200 слотов в кластере. В случае 5и хостов по 16ГБ результат был бы тот же самый - "5*50 - 1*50 = 200".
Если включаете Admission Control, то балансируйте ваши кластеры.

Есть в расширенных настройках такие параметры как das.slotCpuInMHz и das.slotMemInMB для принудительной установки размера слота. Эти параметры могут очень помочь, если у нескольких ВМ в кластере высокие значения резервов, однако здесь тоже есть свои нюансы.



Размер слота памяти установлен в 1024 MB, а VM24 имеет резерв в 4 GB. Как можно заметить, ни у одного из хостов нет 4х свободных слотов, и хотя по сумме слотов требования HA выполняются, есть вероятность, что HA не сможет рестартовать VM24.

Оригинал - Duncan Epping

вторник, 13 октября 2009 г.

Обзор докладов на встрече VMUG - осень 2009

Михаил Михеев выложил у себя презентации и обзор докладов, прозвучавших на встрече.

Дмитрий Блейзер, Veeam, рассказал о грядущем Veeam Backup 4.0
Дмитрий Филимонов и Константин Введенский из Starwind Software представили программный iSCSI Target собственной разработки
Сергей Щадных поделился опытом внедрения виртуализации в крупной компании с большим количеством филиалов
Денис Батурин подробно объяснил, что же такое и как работает распределенный коммутатор, и в частности зачем нужен Cisco Nexus 1000v
Мария Сидорова раскрывала вопросы информационной безопасности виртуальной инфраструктуры
Константин Пичугов, "Код Безопасности", представил продукт, который вам наверняка потребуется, если собираетесь обрабатывать в виртуальных машинах персональные данные

понедельник, 12 октября 2009 г.

VMware vs Microsoft: Desktop virtualization

Сегодня, наконец, переехал на новую рабочую машинку, водрузив туда Windows 7. И, разумеется, озаботился сразу проблемой совместимости vSphere клиента и Windows 7.

Решений очевидных было два: терминальный доступ или локальный.

VDI доступ отмел как неизящный, тем более, что моя вторая рабочая машина, виртуальная, тоже под Windows 7, а плодить десяток не хотелось. Поднял Windows 2008 с RemoteApp и опубликовал vSphere Client. Работает, да... Но как-то отвратно, слишком медленный отклик - тяжеловат vSphere Client для такого.

Итак? Desktop.

Первая попытка была с использованием XP Mode RC - и тут же нещадно обломалась. Поставил Windows Virtual PC RC, XP Mode RC и получил сообщение, что мой процессор, E2160 не поддерживает аппаратную виртуализацию. Проверил на сайте Intel - действительно, не поддерживает. Напомню, что XP Mode - это, по сути, виртуальная машина с XP и бесшовной интеграцией в ОС, так что приложения XP выглядят приложениями Windows 7.

Убил XP Mode из системы, поставил VMware Workstation 7 RC, в нее XP Pro, в нее кучу разных .Net и vSphere Client. Переключил в режим Unity, и ... Заработало!!!
Время отклика однозначно меньше варианта с терминальным доступом, но дает 600-700 MB нагрузки на машину, в отличие от терминала. Хуже, чем в нативном режиме, конечно, но вполне можно потерпеть месяцок-другой, пока VMware не сделает vSphere клиента совместимым с Windows 7.

Жив еще binary translation, курилка!

Да, почему все-таки VMware vs Microsoft - на мой взгляд, Microsoft поторопилась отказываться от binary translation в пользу аппаратной виртуализации с XP Mode, разом потеряв часть "переходных" систем - на базе весьма производительных двухядерных 64битных процессоров, но без VT, а также большинство ноутбуков. Это теперь клиенты VMware. Снизила бы только VMware цены на Workstation...

HA Deepdive: Primary nodes

  1. Slots
  2. Primary nodes
  3. Isolation
  4. Host selection
HA кластер состоит из максимум 32 узлов, которые в свою очередь подразделяются на Primary и Secondary. Primary узлы являются "управляющими" и держат у себя информацию о конфигурации и состоянии кластера, синхронизируя между собой.

Primary узлы посылают хартбиты (heartbeat) только Primary узлам, Secondary узлы посылают хартбиты тоже только Primary узлам. По умолчанию 1 хартбит в секунду, но это конфигурируемый параметр: das.failuredetectioninterval.

Первые 5 узлов, включенные в HA кластер автоматически становятся Primary, а все остальные Secondary. Но если производится действие "Reconfigure for HA", то узлы назначаются Primary и Secondary случайным образом. vSphere клиент не показывает, является ли выбранный узел Primary или Secondary, есть только одна возможность это увидеть - из сервис-консоли:
cat /var/log/vmware/aam/aam_config_util_listnodes.log

или

/opt/vmware/aam/bin/Cli (ftcli on earlier versions)
AAM> ln

Распространена ошибка, что при падении Primary узла происходят перевыборы. Не в этом случае. Перевыборы Primary (выдвижение Secondary узла на Primary роль) происходят только при введении Primary узла в Maintenance Mode, отключении от кластера (disconnect) или удалении из кластера.

Если же все 5 Primary узлов упали одновременно, то рестарта виртуальных машин не произойдет, HA требует наличия хотя бы одного Primary узла для работы. Именно поэтому максимум 4 хоста могут выйти из строя в HA кластере.

Это правило, примененное к блейд-серверам, модифицируется следующим образом: разделяйте блейды из одного кластера по разным корзинам и не включайте в HA-кластер более 4х блейдов из одной корзины.

Один из Primary узлом получает роль Fail-over coordinator или Active Primary. Именно он управляет рестартом виртуальных машин при выходе узлов из строя. Если падает Active Primary, то эту роль берет на себя один из оставшихся Primary узлов.

Оригинал - Duncan Epping.

понедельник, 5 октября 2009 г.

VMware View Open Client 4.0.0 beta1

Буквально только что был опубликован VMware View Open Client 4.0.0 beta1

Что умеет этот клиент:

* Ability to create a secure tunnel using SSL
* Support for two factor authentication with RSA SecurID
* Novell SLETC Add-On RPM package
* Full command line interface

Ну и что он пока НЕ умеет:

* USB redirection
* Multiple desktop sessions
* Multimedia redirection

Как вы уже, наверное, догадались, это клиент View для Linux

среда, 30 сентября 2009 г.

Безопасность в виртуальной среде (Infosecurity Russia 2009)

C 29 сентября по 1 октября в Экспоцентре проходит, ставшая уже традиционной, Международная выставка-конференция по информационной безопасности - Infosecurity Russia. В этом году организаторы и участники не обошли стороной и тему обеспечения безопасности в виртуальной среде. Помимо презентаций на стендах компаний прошел Круглый стол - «Безопасность в виртуальной среде: Технологии обеспечения. Почему традиционных средств недостаточно?» (30 сентября, 2 день) с участием:
1. Михаила Емельянникова (Информзащита)
2. Александра Ширманова (Код Безопасности)
3. Алексея Чеканова (Алмитек)
4. Антона Антича (VMware)
5. Сергея Халяпина (Citrix)

Участники Круглого стола поделились своим мнением относительно особенностей обеспечения безопасности в виртуальной среде. Особенно ценно то, что все участники сошлись во мнении, что новые возможности - это новые проблемы. Не обошли стороной участники и вопрос сертификации как самого ПО, так и средств защиты. Презентации участников Круглого стола можно будет скачать либо с сайта организаторов выставки либо с сайтов компаний.
Завтра, в последний день выставки, пройдет мероприятие под названием - "Львы и гладиаторы-2009". В ходе конкурса представители компаний-разработчиков и поставщиков средств защиты информации представляют новые (появившиеся в течение прошедших 12 месяцев) продукты для рынка информационной безопасности. Цель "гладиаторов" – убедить "львов" приобрести свой продукт. "Гладиатору"-победителю вручается приз – "гладиаторский меч". В этой битве будут представлены 2 продукта для виртуальных сред:
1. Reflex VMC
2. Stonegate IPS

Зарегистрироваться на мероприятие все еще возможно по адресу http://www.infosecuritymoscow.com

Суммируя все вышесказанное, хочется отметить, что тема безопасности виртуальной среды становится все более и более популярной на всех уровнях.

PS. Антон Антич пообещал до конца года Security Hardening по vSphere :)

понедельник, 28 сентября 2009 г.

Грабли: Windows 7 постоянно уходит в Suspend

Грабли: ВМ с установленной Windows 7 постоянно уходит в Suspend

Лечение: В гостевой Windows 7 в настройках электропитания выставить "Put the computer to sleep: Never"

пятница, 25 сентября 2009 г.

Встреча VMware User Group Russia - осень 2009

До встречи пользователей VMware осталась ровно неделя.
Программа мероприятия на 02.10.09:

1. Утренний кофе, регистрация - 9-30.
2. Открытие, общая часть - 10-00.
3. Дешевая виртуализация в филиалах.
4. Как работает менеджмент памяти в ESX (TPS, MO) и другие глубоко технические моменты работы привычных технологий.
5. "Код безопасность".
6. "Что делать, когда у вас уже есть VMware?".
7. обед 13-00 - 14-00.
8. Что модно в этом сезоне? (Virtual Appliances: Secure Content and Threat Management).
9. Безопасность в виртуальной среде: технологии обеспечения.
10. Veeam Backup 4.0.
11. StarWind iSCSI.
12. Ask the Expert.
13. VMware View - реальное внедрение
14. Cisco Nexus 1000v.
15. Закрытие ~ 17-45


Разумеется, все это щедро разбавлено интересными дискуссиями. Мероприятие в чистом виде неофициальное, так что маркетингового shit'а кот наплакал и за собой вытер.

Зарегистрировавшимся были высланы письма с подтверждением участия и организационными подробностями.
Зарегистрироваться еще не поздно - http://vsphere.vm4.ru/vmug.

четверг, 24 сентября 2009 г.

VMware и Microsoft оставили других вендоров за бортом

По результатам опроса, проведенного TechTarget среди 666 IT Pro, уже развернувших или пробующих решения по виртуализации, серьезно рассматривают лишь VMware и Microsoft.

В итоге голоса распределились следующим образом: 72.4% выбрали VMware (ESX 2.x - 4.x или VMware Server), 14.8% Microsoft (Hyper-V или Virtual Server).

Несмотря на большой маркетинговый шум, остальные решения, такие как Citrix XenServer, Red Hat Enterprise Virtualization, Virtual Iron Software Inc. и варианты open source Xen, получили еле-еле по 1%. Решения по виртуализации ОС и на основе партиционирования (HP VSE, IBM mainframe partitions, Solaris Containers и Parallels Virtuozzo) не дотянули даже до 1%.

Источник: http://searchservervirtualization.techtarget.com/news/article/0,289142,sid94_gci1369150,00.html?track=sy420#

понедельник, 14 сентября 2009 г.

Какие нужны диски для ESX?

Часто задают вопрос - какие нужны диски для ESX? А какой на них делать RAID?

Первая часть ответа: диски нужны такие и в таком количестве, чтобы обеспечить достаточный уровень IOPS - подробнее здесь.

Вторая часть ответа: RAID нужно делать не для ESX, а для ВМ. И если вы собираетесь держать в ВМ СУБД, то и делайте подходящий для данной базы RAID. Что точно НЕ стоит делать - это держать виртуальные машины с критическими сервисами на RAID0.

вторник, 8 сентября 2009 г.

Книга по Site Recovery Manager в открытом доступе

Mike Laverick (rtfm-ed.co.uk) в связи с началом работы над книгой по SRM 4.0 выложил в открытый доступ книгу по старой версии, SRM 1.0. Тем не менее, хочу напомнить, что SRM 1.0 на текущий момент является актуальной версией продукта, а 4.0 пока только в бете.

Книгу можно скачать здесь: http://stores.lulu.com/rtfm

понедельник, 7 сентября 2009 г.

Встреча пользователей VMware - осень 2009

Открыта регистрация на осеннюю встречу пользователей VMware.

Место проведения - Москва. Конкретное место определится ближе к делу, в зависимости от количества желающих.
Дата - 2 октября, пятница.
Время и место проведения уточняется, возможно на этот раз встреча будет на целый день, с 10 до 18. Ваше мнение нам тоже интересно - когда, что и сколько раз.

Кстати, мы всегда рады новым людям и новым докладам, так что если вы готовы выступить и поделиться опытом, то мы это будет только приветствовать. Призы за активное участие будут!

Потом по традиции неофициальная часть за кружечкой пива

Кому интересно поделиться своим опытом в небольшом докладе - с радостью готовы пообщаться, пишите Михаилу Михееву.

Список докладов формируется, будет сообщено дополнительно.

пятница, 4 сентября 2009 г.

Best of VMworld 2009

Объявлены победители конкурса «Best of VMworld 2009», победители были выбраны из более чем 175 участников на конференции компании VMware, которая проходит на этой неделе в Сан-Франциско.

Третий год подряд независимая команда экспертов (SearchServerVirtualization.com) оценивает продукты с точки зрения новаторства, стоимости, производительности, надежности и простоты использования.

Награды присуждаются в 8 номинациях:
1. Непрерывность бизнеса и защита данных.
2. Безопасность и виртуализация.
3. Управление виртуализацией.
4. Аппаратное обеспечение для виртуализации.
5. Виртуализация ПК.
6. Технологии облачных вычислений.
7. Новые технологии.
8. Лучшее представление.

Рассматриваются только продукты, которые уже доступны для приобретения, за исключением категории «Новые технологии».

Победители

Категория: Непрерывность бизнеса и защита данных
Победитель: Vizioncore Inc., vRanger Pro 4.0
Финалист: Veeam Software Inc., Veeam Backup & Replication
Финалист: PHD Virtual Technologies, esXpress n 3.6

Категория: Безопасность и виртуализация
Победитель: Hytrust, Hytrust Appliance
Финалист: Catbird Networks Inc., Catbird vCompliance

Категория: Управление виртуализацией
Победитель: Netuitive Inc., Netuitive SI for Virtual Data Centers
Финалист: Veeam Software, Veeam Management Suite
Финалист: Embotics Corp., V-Commander 3.0

Категория: Аппаратное обеспечение для виртуализации
Победитель: Cisco Systems Inc., Unified Computing System
Финалист: Xsigo Systems, VP780 I/O Director 2.0
Финалист: AFORE Solutions Inc., ASE3300

Категория: Виртуализация ПК
Победитель: AppSense, AppSense Environment Manager, 8.0
Финалист: Liquidware Labs, Stratusphere
Финалист: Virtual Computer Inc., NxTop

Категория: Технологии облачных вычислений
Победитель: Mellanox Technologies, Italio Cloud Appliance
Финалист: InContinuum Software, CloudController v 1.5
Финалист: Catbird Networks Inc., Catbird V-Security Cloud Edition

Категория: Новые технологии
Победитель: VirtenSys, Virtensys IOV switch VMX-500LSR

Категория: Лучшее представление
Победитель: Hytrust, Hytrust Appliance

Источник: Techtarget

Видеоролик: http://link.brightcove.com/services/player/bcpid1740037323

среда, 2 сентября 2009 г.

Грабли: виртуальный IDE диск

Жесткие диски IDE в ESX ВМ, в отличие от SCSI, не поддерживают ни hot-, ни cold-extend, а использование VMware Converter может привести к невозможности загрузки ВМ.

пятница, 28 августа 2009 г.

Кластерный vCenter

VMware опубликовала официальный гайд по кластеризации vCenter средствами MSCS.

Одним словом: Wow!

До недавнего времени альтернативой был пожалуй только vCenter HeartBeat за 16 килобаксов.

Upd: извините, за 10 килобаксов по прайсу. 12 - vCenter Heartbeat с 1 годом золотой поддержки, 16 - с 3 платиновой.

среда, 19 августа 2009 г.

Проблемы с большими VMDK в 3.5

На форуме поделились информацией:

В 3.5u4 вы не можете увеличить VMDK диск, если он больше терабайта размером, через VI Client. Придется пользоваться командной строкой и vmkfstools.
VMware официально признала это багом, ждем исправления.

MSCS на vSphere

Изменились ли правила для установки Microsoft кластеров на vSphere? Ответ: слегка.

Есть три сценария работы MSCS и ESX: Cluster-in-a-box (оба узла MSCS работают на одном физическом сервере - удобно для тестирования), cross-host (узлы MSCS находятся на разных физических серверах) и physical-virtual (когда один узел MSCS физический, а второй виртуальный).

  • MSCS все еще ограничены двумя узлами при работе на ESX 4.
  • Можно использовать локальные диски (для cluster-in-a-box) или Fibre Channel для двух других вариантов. Поддержка NFS и iSCSI пока отсутствует.
  • При работе в cross-host варианте оба ESX хоста должны иметь одинаковые версии.
  • Узлы MSCS не могут находиться в кластерах HA или DRS.
  • Нельзя использовать MSCS одновременно с FT. точнее сказать, FT машины могут работать на тех же физических хостах, но узлы MSCS не могут быть запущены как FT машины.
  • Нельзя перемещать узлы MSCS при помощи VMotion.
  • Нельзя использовать N-Port ID Virtualization (NPIV).
  • При использовании Fibre Channel и родного multipathing в ESX нельзя использовать round-robin политику путей.
  • Использовование VM hadware 7 для ESX/ESXi 4.0 обязательно.
  • Failover кластеры Windows 2008 не поддерживаются с virtual RDM, обязательно использование physical RDM.
  • Нельзя использовать тонкие vmdk диски для Windows.
  • Для Windows 2000 / 2003 необходимо использовать LSI Logic Parallel как контроллер Для общего хранилища, для Windows 2008 - LSI Logic SAS.
  • Для physical-virtual MSCS кластеров необходимо использование physical RDM.
  • Нельзя использовать multipathing ПО в ВМ или на ESX (как например PowerPath VE).
  • Нельзя использовать Memory Overcommit для узлов MSCS, требуется полностью резервировать память для MSCS ВМ.
  • Необходимо выставить значение disk I/O timeout в 60 секунд или более (HKLM\System\CurrentControlSet\Services\Disk\TimeOutValue)


Оригинал: Dave Lawrence (VMware)

вторник, 18 августа 2009 г.

Лицензирование Windows под Parallels

Иногда встречаются утверждения от любителей продуктов Parallels, что в случае контейнеров Virtuozzo не требуется платить многократно за Windows, поскольку реально используется всего один экземпляр ОС.

Андрей Бешков (Microsoft) прокомментировал данное утверждение таким образом: "С точки зрения Product Usage Rigths нет никакой разницы, контейнер это или отдельная виртуальная машина. Каждый контейнер имеет в себе ЭКЗЕМПЛЯР ОС. Лицензируется количество одновременно-запущенных экземпляров. Поэтому никакой экономии лицензий Windows продукт Parallels в сравнении с Hyper-V или vSphere или Xen не дает."

Господа любители Parallels, не делайте больше, пожалуйста, такой "рекламы" для любимого вендора.

четверг, 13 августа 2009 г.

Роли, которые мы выбираем…

Представьте себе ситуацию, кабинет Гиммлера, в него врывается Мюллер и начинает рыскать по шкафам, хватает папку с документами и убегает. Возможно ли такое при правильном сценарии?

Используй то, что под рукой и не ищи себе другое.

Если в вашей компании только один администратор, то дальше можете не читать, доверьтесь администратору и спите спокойно (или наоборот беспокойно), ведь он как ходил везде, имея отмычку от всех дверей, так и будет это делать дальше. И плевать ему, что на столе лежит многопудовая связка новеньких ключиков с бирками. А вот если у вас, к примеру, чертова куча серверов и целая толпа унылого вида красноглазых админов всех мастей и размеров? Что делать тогда? А вот тогда – читать дальше.

Помните одиозного помощника лорда Мейса? - «Есть ли у вас план, мистер Фикс? — Есть ли у меня план? Есть ли у меня план? Да у меня целых три плана!». В сущности, он был совершенно прав, имея целых три плана.
А сколько нужно нам для понимания масштабов бедствия и разработки возможных вариантов спасения утопающих, используя силы этих самых утопающих? Все те же 3 плана, точнее итерации:

1. Составьте для себя перечень повседневных задач, которые придется решать. Составьте его тщательно, продуманно, взвешенно. Но я ручаюсь, вы все равно что-нибудь да забудете. Впрочем, к этой работе можно будет вернуться еше раз, на второй итерации.
2. Чтобы выполнить все то, что вы описали ранее – а что КОНКРЕТНО надо делать? Вот так и распишите все как Петька оперу - про ВСЕХ И ОЧЕНЬ ПОДРОБНО.
3. Когда с первыми этапами покончено - задумайтесь, а КТО и ГДЕ все это будет делать? Это самый важный и сложный момент во всем вашем безумном предприятии.

Что получилось в итоге? А в итоге мы получили три важных компонента управления доступа – перечень ролей, перечень конкретных привилегий для каждой роли и, о чудо, МАТРИЦУ ДОСТУПА к информации – мечту любого безопасника от мала до велика.

Три ореха это уже куча или еще не куча?

Никогда не используйте встроенные роли кроме системных, таких как в VI, так в vSphere всего 3 - No Access (по умолчанию для всех пользователей кому в явном виде не прописан доступ), Read Only (роль содержит привилегии на просмотр детальной информации на уровне объекта иерархии), Administrator (роль содержит все привилегии на уровне объекта иерархии).

Эти роли не подлежат удалению или изменению, так как для инфраструктуры это может окончиться плачевно.

Обязательно продумайте, какие функции будут выполнять люди, не создавайте 1 роли которая может все. Очень сомнительна роль «все включено», вы же не вытираете со стола и не моете пол одной и той же тряпкой.

Несколько слов о роли Administrator. Обычно эта роль назначается администраторам виртуальной инфраструктуры. Таких администраторов, скорее всего, будет несколько и каждый из них будет отвечать только за определенный участок работы, а, следовательно, каждый будет иметь полномочия, которые не соответствуют его функциональным задачам (контроль над всеми серверами ESX и возможность назначения полномочий). Хорошим решением в данном случае было бы создание 2 персонифицированных аккаунтов с ролью Administrator (основной и резервный) что называется на исключительный случай, а для повседневной работы создание специальных ролей для каждого администратора с минимально необходимыми привилегиями согласно функциональным задачам.

Так же в списке ролей существующих по умолчанию есть еще роли, созданные для ознакомления, как примеры и не более того (в терминах компании VMware).
VI3:
  1. Resource Pool Administrator
  2. Virtual Machine Power User
  3. Virtual Machine User
  4. VMware Consolidated Backup User
  5. Virtual Machine Administrator
  6. Datacenter Administrator
vSphere:
  1. Resource Pool Administrator
  2. Virtual Machine Power User
  3. Virtual MachineUser
  4. VMware Consolidated Backup User
  5. Datastore Consumer
  6. Network Consumer

Несколько слов о роли VMware Consolidated Backup User. Согласно технической документации компании VMware изменение или удаление это роли не допускается.

Если внимательно посмотреть на то, какие полномочия (привилегии) ставятся в соответствие, большинству ролей приведенных для ознакомления, то можно говорить об избыточности полномочий пользователей, которым будут назначены эти роли.

Рассмотрим на примере.
Роль Virtual Machine User (обычно назначается всем рядовым пользователям) обладает 15 полномочиями, среди которых – Global – CancelTask, VirtualMachine – ConsoleInteract, VirtualMachine – SetCDMedia, ScheduledTask – Create, ScheduledTask – Run. Вы уверены в том, что эти полномочия необходимы для работы? Это как в театре, если на сцене в первом акте висит ружьё, то в третьем оно непременно выстрелит.

Аутентификация пользователей должна производиться с использованием доменных учетных записей, аккаунты от локальных учетных записей, как и аккаунты роли Administrator (основной и резервный) необходимо использовать только в исключительных случаях и хранить в бумажном виде в сейфе.

Любой доступ к объектам инфраструктуры должен производиться с персонифицированной учетной записи, эта мера залог того, что при инциденте вы сумеете точно определить виновное лицо.

«Разделяй и властвуй» Николо Макиавелли

Для управления инфраструктурой виртуализации необходимо создавать роли для выполнения конкретных задач и наделенные минимально необходимыми привилегиями для их выполнения.

Ролевой механизм насчитывает порядка 110 доступных привилегий.

Не забывайте о том, что роль, назначенная индивидуальному пользователю для данного объекта, будет иметь приоритет над привилегиями, назначенными групповой ролью; а при наличии нескольких ролей на объект пользователю будут суммированы все привилегии назначенных ролей.

Назначение ролей администраторам должно производиться от самого старшего объекта иерархии (сверху вниз), а пользователям от самого младшего (снизу вверх) с целью регулирования наследования привилегий для дочерних объектов, назначение наследования полномочий для дочерних объектов необходимо рассматривать индивидуально в каждом конкретном случае.

Возникает вопрос, а что делать с ролями, существующими по умолчанию для ознакомления? Здесь 2 варианта: либо удалять, либо вносить изменения в эти роли. Выбор решения в каждом конкретном случае будет зависеть от того, насколько полно производится документирование всех изменений вносимых в конфигурацию. Если действия при внесении изменений в разрешения роли, удалении роли или создании новой роли фиксируются в соответствующей документации, то у вас будет возможность следить за матрицей ролей и целесообразностью предоставляемых полномочий администраторам и пользователям. В противном случае, запутавшись в собственных разрешениях и запретах, можно остаться и без доступа к инфраструктуре.

вторник, 11 августа 2009 г.

Осенняя встреча VMware User Group Russia

Хочу объявить, что мы начинаем подготовку к осенней встрече пользователей VMware.
Ориентировочное время и место: Москва, конец сентября-начало октября.

На какие темы вы хотели бы услышать доклады? Или, может быть, прочитать :)
Представители вендоров с техническими докладами также будут желанными гостями.

среда, 5 августа 2009 г.

10 причин ненавидеть vSphere

1. Деньги, сэкономленные на электропитании и охлаждении, не вернутся в мой бюджет.

2. Поставщики железа больше не приглашают меня на обед, ведь я стал покупать меньше оборудования.

3. Мной недовольны подчиненные, ведь у них стало меньше сверхурочных из-за функций быстрого восстановления в vSphere.

4. Мне постоянно приходится доказывать, что бизнес-приложения будут работать так же хорошо, как и на выделенных серверах.

5. Я стал добавлять приставку 'v' к каждому техническому термину в разговоре.

6. После внедрения VDI я стал редко навещать пользователей.

7. Мой почтовый ящик завален письмами от экофанатов, ведь у нас теперь "зеленый датацентр".

8. Меня замучали звонками компании, пытающиеся продать мне продукты для vSphere (восстановление данных).

9. Приходится объяснять пользователям, что если выключить тонкий клиент, то их виртуальная машина не перезагрузится.

10. Не могу купить новую Fibre Channel СХД, потому что iSCSI в vSphere работает просто замечательно.

Оригинал.

четверг, 30 июля 2009 г.

Sony и виртуализация

Люди, потратившие деньги, и немалые, на ноутбуки Sony VAIO, и теперь заинтересовавшиеся виртуализацией, теперь понимают, что потратили эти деньги зря.

Sony фактически полностью блокировала BIOS и не предусматривает возможности включения аппаратной виртуализации, Intel-VT. Для тех, кто не в курсе, Intel-VT появилась в процессорах Pentium 4 662 и 672 в ноябре 2005 года, а в настоящее время поддерживается практически любым выпускающимся процессором Intel, от Atom до могучих Xeon 5500. В том числе и в Core i3, i5 и i7.

Аппаратная виртуализация (Intel-VT и аналогичная ей AMD-V) позволяет, например, запускать 64-битную гостевую ОС поверх 32-битной хостовой. Сейчас любая платформа виртуализации поддерживает аппаратную виртуализацию, независимо от типа, как сониторы ВМ, так и гипервизоры: VMware ESX, VMware Workstation & Server, Microsoft Hyper-V, Citrix XenServer, Sun VirtualBox etc. Более того, Hyper-V, например, и вовсе без аппаратной виртуализации работать не будет.

Сложно ли включить поддержку Intel-VT, если процессор умеет ее? До смешного просто, необходимо зайти в BIOS и поставить Enabled. Но только не в ноутбуках Sony. Там этой опции просто нет. В итоге владельцы Sony VAIO вынуждены порой заниматься обратным инжинирингом, и/или применять опасные патчи для включения аппаратной виртуализации.

Официальная позиция Sony в том, что Intel-VT не поддерживается на ноутбуках VAIO, что не является истиной. Достаточно запустить любое средство диагностики процессора, как, например, CPU-Z или CrystalCPUID.



Следующий, кто пострадает от политики Sony - Microsoft, и пострадает весьма серьезно.

В Windows 7 включена в качестве компонента платформа Windows Virtual PC. И в частности именно она является основой для XP Mode, режима соместимости старых программ с Windows XP. Технически же это просто виртуальная машина с Windows XP, и требует для работы Intel-VT. Таким образом... пользователи Sony VAIO просто не смогут работать в XP Mode.

Но Windows 7 официально выходит лишь 22 октября, может не все потеряно? Нет, все. Sony официально заявила, что нет планов о включении поддержки Intel-VT ни для старых, ни даже для новых моделей ноутбуков VAIO.

Вольный перевод заметки Alessandro Perilli (virtualization.info)

пятница, 24 июля 2009 г.

Два взгляда на VCP

Экзамен на VMware Certified Professional не самый легкий, но и не самый трудный в мире. Политика VMware такова, что сдавать экзамен можно лишь прослушав официальный учебный курс (48 000 руб в России, примерно 3000$ зарубежом).
Сдав экзамен вы получаете лишь лист бумаги в бело-голубых тонах с логотипом и лицензию на VMware Workstation (189$).

И взглядов на это два. С одной стороны, вхождение в VCP очень дорогое удовольствие, хотя VCP - это не CCIE и даже не MCSE по уровню сложности. Давно пора бы уже снизить планку и позволить тысячам прекрасных квалифицированных инженеров получить заветный логотип на визитку. VCP в мире не так уж и много, даже меньше, чем MCSE - в прошлом году я был 26 тысяч каким-то по счету. Позиция VMware с этой точки зрения объясняется банальным желанием "срубить бабла" на обучении.

Но есть и другой взгляд на эту проблему. Ценность MCP, например, практически нулевая - этот сертификат не дает никакой уверенности работодателю. MCP получить не легко, а очень легко, достаточно зазубрить дамп, заплатить 70$ за экзамен и вуаля! В итоге имеем море сертифицированных "специалистов". Высокая стоимость вхождения в VCP отсекает это самое море дамперов и собирателей сертификатов. Если работодатель видит перед собой сертификат VCP, то с высокой вероятностью его обладатель имеет какой-то опыт работы и понимание. 3000$ далеко не каждый может выкинуть на сертификат просто на всякий случай, так что скорее всего платила компания, в которой данный специалист работал по профилю.

Вторая точка зрения подтверждается и зарплатами.



Какая из этих точек зрения правильная - не знаю.

VI3 Free eBook

Mike Laverick (rtfm-ed.co.uk) выложил в открытый доступ книгу по VI3 и пару гайдов.

VI3 eBook
Quick Start Guide to ESX3i
Upgrade Guide to ESX 3.5 and VirtualCenter 2.5

Veeam будет поддерживать Hyper-V

По словам Дага Хейзелмана (Doug Hazelman), директора Global Systems Engineers Group, Veeam будет поддерживать Hyper-V и Windows Server 2008.

Ждем Veeam Backup для Hyper-V :)

четверг, 23 июля 2009 г.

Эй, чувак, ты на кого Sysprep катишь?!

Eric Gray поделился совершенно замечтательным наблюдением насчет того, кто Enterprise-ready.

Задача: существует библиотека шаблонов ВМ, которую периодически надо обновлять, и, разумеется, разворачивать ВМ из шаблонов.

VMware vCenter.

Шаблон ВМ (Template) - это обыкновенная ВМ со специальным флагом, препятствующем ее случайному запуску. Иными словами, вы можете просто клонировать существующие ВМ c применением Customization specification, если есть такое желание. Превращать ВМ в шаблон не требуется. Sysprep обрабатывает ВМ только после того, как она полностью склонирована, оригинальная ВМ остается без изменений.



Данная схема работы позволяет моментально превратить шаблон обратно в ВМ. Например, для установки патчей, дополнительного софта или переконфигурации оборудования.

Ну и, разумеется, vCenter полностью поддерживает кастомизацию Linux-машин, в отличие от конкурентов.

вторник, 14 июля 2009 г.

Свободное ПО как средство грязной конкуренции

Интересное мнение на свободное ПО - http://itblogs.ru/blogs/cio_anatomy/archive/2009/07/13/51045.aspx

"Не можешь захватить сегмент – убей его". В голову приходят кто? Правильно, Citrix XenServer в первую очередь и Hyper-V во вторую.
Citrix после покупки XenSource прямо скажем, не преуспела на рынке виртуализации. Microsoft и вовсе в виртуализацию входила с нуля, аутсайдером и с недоразвитым продуктом. Не получается зарабатывать самим - не дадим и остальным, а точнее VMware, чье имя де-факто до недавних пор было просто синонимом "виртуализации".

пятница, 10 июля 2009 г.

Free ESXi & ESX

Существует интересный технический момент - если ввести серийный номер от Free ESXi на ESX сервере, то Evaluation режим остановится и мы получим полноценный ESX сервер с сервис-консолью. Разумеется, с функционалом, соответствующим бесплатному ESXi.

Однако согласно лицензионному соглашению данный способ использования ESX запрещен, и серийные номера Free ESXi должны использоваться только с ESXi.

четверг, 9 июля 2009 г.

Лицензирование vSphere и HyperThreading

Вопрос: есои есть 4х-ядерный процессор с поддержкой HT, то придется ли менять лицензию на Enterprise Plus при включении HT, и соотв. увеличения количества ядер до 8?

Ответ: HT не является ядром, и соотв. процессор будет рассматриваться как 4х-ядерный с HT, а не 8и-ядерный, что не требует апгрейда лицензии.

вторник, 7 июля 2009 г.

Не получается создать локального пользователя на ESXi

Встречено на форуме. Некто жалуется, что не может создать локального пользователя "itadmin", хотя любых других может. Вот что получается:



Попробовал и я. Действительно для пар (логин/пароль) itadmin/itadmin и admin/admin такое сообщение. Но при этом прекрасно сработали пары itadmin/qweasdzxc и admin/qweasdzxc, и пользователи были созданы.

Проверил логи:

<Error type="Vmomi.Fault.SystemError">
<Message>A general system error occurred: passwd: Authentication token manipulation error
passwd:
</Message>
<DetailedMessage>A general system error occurred: passwd: Authentication token manipulation error
passwd:

</DetailedMessage>
<Reason>passwd: Authentication token manipulation error
passwd:
</Reason>
</Error>
[ :ShowErr ] 2009-07-07 14:40:40.936 Create User: User name or password has an invalid format

Итак, проблема в том, что passwd не хочет создавать пользователя с таким паролем, но почему? Открыл ssh до ESX

[root@esx2] ~ # passwd dummy
Changing password for user dummy.
New UNIX password: admin
BAD PASSWORD: it is too short
Retype new UNIX password:

[root@esx2] ~ # passwd dummy
Changing password for user dummy.
New UNIX password: itadmin
BAD PASSWORD: it is based on a dictionary word
Retype new UNIX password:

Вот, в общем-то и все, проблема в сложности пароля и недостаточной детализированности ответа ESXi. Все мы, конечно, понимаем, что "qweasdzxc" в качестве пароля вряд ли надежнее чем "admin", но ESXi в лице утилиты passwd считает иначе.

четверг, 2 июля 2009 г.

vShield & VLANs

На встрече VMUG был вопрос: может ли vShield работать с VLAN'ами?
Ответ: может

понедельник, 29 июня 2009 г.

vShield: грабли с View Offline Desktop

Проблема: vShield Autoinstall failed для хоста, на котором лежит выгруженная ВМ с Offline Desktop. Созданы временные портгруппы, процесс инсталляции (деинсталляции) прерван.
Причина: для выгруженной Offline Desktop ВМ запрещено изменение параметров. Соотв. процесс инсталляции спотыкается на этой ВМ и прерывается.
Лечение: завершить инсталляцию вручную. А конкретно создать и переименовать портгруппы до нужного состояния, переключить ВМ в нужные портгруппы. Как это должно выглядеть - смотреть на хосте без Offline Desktop ВМ.

среда, 24 июня 2009 г.

Windows 2003 Memory HotAdd

Часто встречаются разочарованные посты от пользователей: как же так, такая клевая фича с горячим добавлением памяти, а не работает на Windows 2003 Standard.

Объясняю, VMware здесь совсем не при чем, это ограничение накладывается архитектурой самой Windows. Ну или маркетингом Microsoft, может быть.

Итого, для работы Memory HotAdd гостевая система должна быть:
- Windows 2003 Enterprise, Datacenter или Web Edition
- Windows 2008 Enterprise или Datacenter
- Windows 7 Ultimate или Enterprise

А также поддерживается и для Linux:
- RHEL5 64bit, все апдейты
- SLES 10 32bit и 64bit, все сервис-паки

понедельник, 22 июня 2009 г.

vShield: грабли при развертывании

Грабли, на которые наступил тут.

При деплойменте vSield Manager и vShield из OVF необходимо использовать File / Deploy OVF template в vSphere клиенте. Только так сохраняются правильные настройки сетевых адаптеров. VMware Converter, во всяком случае Standalone, наплевал на них и создал один адаптер типа Flexible, что неправильно.

Правильные адаптер для vShield Manager - E1000. Для vShield их три, mgmt - E1000, а prot и unprot - VMXNET3.

суббота, 20 июня 2009 г.

Типы vHDD (VMDK)

Виртуальным машинам ESX доступны несколько типов дисков (VMDK).

Thin, Thick, ZeroedThick и EagerZeroedThick. Чем же они различаются?

Thin - "тонкий" диск, файл с виртуальным диском растет по мере использования дискового пространства. Перед выделением очередного блока, блок предварительно очищается (забивается нулями).
Thick - "толстый" диск, файл сразу же создается затребованного размера. Ни при создании, ни при обращении не происходит очистки места. Т.е. ВМ может получить доступ к тем данным, котроые раньше хранились на этом месте.
ZeroedThick - "толстый" диск с очисткой блока при первом к нему обращении.
EagerZeroedThick - "толстый" диск с очисткой всего диска при создании.

По умолчанию из VI / vSphere клиента создается ZeroedThick диск. Диск создается моментально, но часто ведет к жалобам на скорость дисковой системы ESX, поскольку первое обращение к любому блоку диска будет медленным из-за предварительной записи всего блока. Поэтому, если у вас есть желание протестировать скорость диска или сразу же получить полную скорость, то необходимо либо прогнать первый раз тест не обращая внимания на результат (просто обращение к каждому блоку), либо использовать EagerZeroedThick диск. EagerZeroedThick диск создается долго, но имеет полную скорость сразу и является безопасным, в отличие от Thick диска.
При включении FaultTolerance все диски ВМ автоматически конвертируются в EagerZeroedThick формат.

пятница, 19 июня 2009 г.

Грабли. Низкая производительность ВМ.

Проблема: производительность ВМ неожиданно низкая, все очень тормозит.
Диагностика: посмотрите на загрузку памяти ВМ, если она 100%, все интенсивно свопится, а для машины при этом значительные цифры видны в Memory Ballooned, то это проблема с выставленным Memory Limit.
Лечение: Memory Limit выставить в значение, равное памяти ВМ, или в Unlimited.

Если машин много, то можно сделать это скриптами.

четверг, 18 июня 2009 г.

ESX(i) build number

Все наверное замечали, что при установке некоторых патчей меняется номер билда ESX(i).

Вот здесь можно посмотреть соответствие билдов и версий.

ESXi 4 от HP

HP выпустила ESXi 4 с интегрированными агентами мониторинга. Скачать можно здесь.

вторник, 9 июня 2009 г.

Темы докладов на летней встрече пользователей VMware

  • vSphere во всех видах.
  • VCB и vStorage Data Recovery
  • vShield Zones
  • XenServer, XenDesktop - сами по себе и сравнение с ESX(i), VMware View.
  • Виртуальный распределенный коммутатор Cisco Nexus 1000V.
  • Опыт по развёртыванию пилотного проекта VMware View.
  • НЕмаркетинговый рассказ про продукты Veeam от специалиста компании.
  • Плюсы и минусы документов VMware по безопасности. Проблемы, с которыми сталкиваются безопасники при разработке таких документов. Моменты, которые всегда вызывают разногласия у безопасников и отделов ИТ.
  • PowerShell VI toolkit / vSphere Power CLI.


Регистрация - тут.

четверг, 4 июня 2009 г.

Hyper-V 2.0

Все уже в курсе о выходе новой версии Hyper-V.

Но хотелось бы напомнить, что новыми ключевыми технологиями продукта Microsoft для виртуализации являются Live Migration и Cluster Shared Volumes.

Срок выхода: июль 2009.

Хотелось бы напомнить, что технология VMotion у VMware появилась в 2003 году, а первая собственная кластерная файловая система VMFS вместе с ESX 1.0 увидела свет в 2001 году.

VMware ограничивает работу с Free ESXi

VMware официально попросила Veeam убрать в Veeam Backup поддержку работы с Free ESXi. О чем было заявлено в пресс-релизе Veeam.

Тем не менее, для тех, кто купил Veeam Backup & Replication ранее, до версии 3.1, поддержка Free ESXi останется.

Чуть ранее уже пояснил Антон Гостев из Veeam, что согласно новому EULA запрещается обходить технические ограничения. Поскольку публичные API не разрешают работу с Free ESXi в RW режиме, то и сторонний софт так же не должен позволять.

Как заметил Rich Brambley (vmetc.com), раньше Пол Мариц (VMWare CEO) был номером 3 в Microsoft.

vSphere & Microsoft Cluster

vSphere признали хорошей годной платформой по программе SVVP, но...

Но Microsoft Cluster не поддерживается в VMware DRS/HA кластерах.

For ESX 3.5:
http://www.vmware.com/pdf/vi3_35/esx_3/r35u2/vi3_35_25_u2_mscs.pdf
Page 16 - "Clustered virtual machines cannot be part of VMware clusters (DRS or HA)."

For vSphere:
http://www.vmware.com/pdf/vsphere4/r40/vsp_40_mscs.pdf
Page 11 - "The following environments and functionality are not supported for MSCS setups with this release of vSphere:
Clustered virtual machines as part of VMware clusters (DRS or HA)."

среда, 3 июня 2009 г.

VMware Converter Standalone: Session is not authenticated

Иногда при работе VMware Converter Standalone на второй стадии (выбор сервера в инфраструктуре) возникает ошибка "the session is not authenticated".

Лечение:
Откройте "Управление компьютером" / "Службы" и перезапустите
VMware vCenter Converter Agent
VMware vCenter Converter Server

VMware Data Recovery

Продолжаю рассказ о новых "фишках" vSphere. На этот раз Data Recovery.

Data Recovery, как и vShield, не вносит никаких архитектурных изменений в уже привычную схему работы. Это virtual appliance на базе CentOS 5.2, и по сути представляет собой надстройку над VCB, поскольку работает схожими методами.
Но надстройку очень серезную, полноценный графический интерфейс, планировщик, собственный формат хранения и даже дедупликацию данных.

Встреча VMware User Group Russia

Господа и, надеюсь, дамы!

26го июня (предварительная дата) состоится встреча российских пользователей VMware. Пока планируется на вторую половину дня, но если наберется достаточно докладов, то возможно и на целый день.

Темы докладов определяются, еще есть возможность высказать пожелания :)

Регистрация - здесь.

P.S. если кто-то хочет не только послушать, но и рассказать о своем опыте - милости просим!

вторник, 2 июня 2009 г.

vShield & VMotion

К предыдущему посту.

При установленных vShield миграция VMotion становится невозможной, поскольку все машины начинают смотреть в virtual intranet.

Как лечить.
1. Открываем "C:\Documents and Settings\All Users\Application Data\VMware\VMware vCenter\vpxd.cfg"
2. Добавляем
<migrate>
<test>
<CompatibleNetworks>
<VMOnVirtualIntranet>false</VMOnVirtualIntranet>
</CompatibleNetworks>
</test>
</migrate>

3. Перезапускаем службу Virtual Center


Более того, хочу обратить ваше внимание, что после установки vShield работа с ESX'ами усложняется. При включенном DRS vShield машина никуда не сможет мигрировать потому что использует специфические для каждого конкретного хоста портгруппы. Этого мы, собственно, и добивались, размещая на каждом ESX неперемещаемые машины с файрволлами. Но иногда все же нужно перевести хост в maintenance mode - и в этом случае придется выключать vShield машину вручную, из консоли.

понедельник, 1 июня 2009 г.

vShield: проблемы с VMotion

Еще одни грабли с vShield. Да, уточню, грабли - это не проблема самой технологии или продукта, это лишь хитрое сочетание факторов, требующее знания. Если не знать, где лежат эти грабли, то на них можно наступить.

Итак, грабли. В процессе установки vShield машины нельзя переместить с хоста без vShield на хост с уже установленной vShield. Причина проста - на хосте с vShield сеть виртуальных машин смотрит в vSwitch без физических аплинков, а весь трафик пробрасывается vShield машиной. vCenter следит за ситуациями, когда машина перемещается из публичной сети, имеющей аплинки, в "виртуальный интранет" и предотвращает подобное.

Так что придется смириться или с даунтаймом, или рискнуть и ставить vShield на живую систему с переключением ВМ (правда автоматическим) между сетями.

Ограничения бесплатной версии ESXi

Remote CLI:
RCLI работает в read-only режиме для бесплатной версии VMware ESXi. Чтобы включить полный режим, необходимо купить лицензию любого уровня.
VMware Infrastructure toolkit для Windows и Perl toolkit подключаются к ESXi при помощи тех же API, что и RCLI. Соотв. эти тулкиты так же ограничены до read-only с бесплатным VMware ESXi.

SNMP:
Бесплатный ESXi не поддерживает SNMP.

Active Directory:
Бесплатный ESXi не поддерживает интеграцию с AD.


Дополнительно, по словам Антона Гостева из Veeam, в бесплатной версии ESXi 4 (vSphere) добавлены некоторые технические ограничения с целью предотвращения работы ESXi c 3rd party приложениями. Хотя технически обойти их легко, обновленное соглашение EULA напрямую это запрещает.

Upd: "You may not ... (iv) create, develop, license, install, use, or deploy any third party software ... to circumvent ... the technical restrictions of the Software

Сухая выжимка: "нельзя обходить технические ограничения". Вендорам нельзя обходить, а юзерам нельзя такие продукты использовать.

Непосредственные технические ограничения заключаются в том, что почти любая операция с ESXi через "публичные" API теперь выкидывает ошибку "Restricted version". А обойти это легко потому, что сам VIC по-прежнему любые операции умеет делать с бесплатным ESXi (только делает их уже через непубличный API)."

пятница, 29 мая 2009 г.

Что такое vShield Zones

По многочисленным просьбам рассказываю что такое vShield Zones.

vShield Zones - это система файрволлов на каждом ESX + управляющая консоль. Файрволлы (vShield), как и консоль (vShield Manager), являются просто виртуальными машинами.

Принцип работы очень прост, у каждой vShield три сетевых интерфейса: mgmt, unprot и prot, которые подключены в соотв. портгруппы. Для коммуникации с vShield Manager используется mgmt интерфейс, обладающий собственным IP, unprot ловит все пакеты, проходящие через vSwitch, а после обработки пакеты отдаются во второй vSwitch (не имеющий физических аплинков) через prot интерфейс. В данном случае VMware не стала изобретать велосипед и просто купила компанию, специализирующуюся на таких решениях - BlueLane.

Hyper-V делают в Китае?

Извините, не смог удержаться :)

четверг, 28 мая 2009 г.

Сколько ВМ можно разместить на одном хосте?

Duncan Epping по традиции бьет не в бровь, а в глаз.

"Что, если я спрошу вас, какое максимальное количество ВМ можно разместить на одном хосте с vSphere?

Держу пари, что ответ будет 320 ВМ. Разумеется, ответ, основанный на "virtual machines per host" со страницы 5 "Configurations Maximum for vSphere".

Но будет ли он правильным? Нет, не будет. Правильный ответ: когда как. Зависит от того, используете вы HA или нет. Для HA кластера действуют иные ограничения (стр. 7):

* Максимум 32 хоста в HA кластере.
* Максимум 1280 ВМ в кластере.
* Максимум 100 ВМ на хост.
* Если количество хостов в кластере более 8, то максимум 40 ВМ на хост.

Это очень серьезные ограничения, и не стоит о них забывать, разрабатывая проект виртуальной инфраструктуры. Вышеуказанные цифры затрагивают практически все, от размера кластера вплоть до выбора оборудования."

vShield: не поднимается сеть

Первые грабли с vShield на ESX4.0 - не поднимается и не конфигурируется сеть ни на vShield Manager, ни на vShield машинах.

Лечение: после импорта appliance в инфраструктуру сменить сетевые адаптеры машин с Flexible на, например, VMXNET3.

View 3.1 released

Что нового в View Manager 3.1

* Улучшения производительности - логин теперь происходит быстрее и меньше загружает сервер.
* Автоматизированный бэкап данных LDAP и View Composer Database - теперь можно настроитть автоматическое резервное копирование данных LDAP и базы данных View Composer из View Administrator.
* Информация о клиенте - информация об устройстве, с которого производится подключнение, теперь доступна в качестве ключей реестра. Это позволяет создавать скрипты для автоматического подключения к локальным принтерам или использовать 3rd party утилиты. Информация включает в себя название устройства, IP и MAC адреса устройства.
* Улучшенное логирование - отладочные логи включены по умолчанию. Логирование было улчшено для предоставления более информативных сообщений с минимальным влияением на загрузку.
* Улучшены мастеры редактирования десктопов - улучшенные мастеры редактирования повзволяют быстрее и удобнее редактировать существующие пулы десктопов.
* Улучшения USB - View 3.1 предлагает более надежную поддержку большего количества устройств с уменьшенным потреблением трафика. Теперь используются отделный TCP/IP поток.
* Multimedia Redirection (MMR) для Windows Vista - MMR теперь поддерживается для Windows Vista. Технология MMR доставяет мультимедиа поток напрямую на клиентское устройство вместо декодирования и отображения его через стандартный RDP. Это позволяет просматривать видео в полном качестве.
* Уменьшение потребления трафика для Adobe Flash.
* Поддержка различных протоколов - View Client теперь поддерживает HP Remote Graphics Software (RGS) как протокол отображения при подключении к HP Blade PC, рабочим станциям HP и Blade рабочим станциями HP. Подключением иуправляет брокер View Manager. HP RGS - протокол отображения HP, позволяющий пользователю подключаться к рабочему столу удаленного устройства по локальной сети. VMware View 3.1 поддерживает HP RGS версии 5.2.5. VMware не включает ПО и лицензии для HP RGS вместе с View 3.1.

среда, 27 мая 2009 г.

Online VMware User Group

Alan Renouf создал Online VMware User Group. На текущий момент она неофициальная, но уже решается вопрос о ее официальном статусе. 1 июня состоится первая встреча в пространстве Live Meeting :)

Introduction
Presentation and Demonstration of The Virtualization EcoShell Initiative by Scott Herold
Virtual Coffee break (bring your own coffee)
Overview and Demonstration of vSphere new features by a VMware Employee
Finish and details of next Unofficial Online VMUG

Вебинар также будет записан для тех, кто не сможет присутствовать.

Дата: 1 июня 2009
Время: 08:00 PM GMT - 00:00 по московскому

URL: https://www.livemeeting.com/cc/winserver_usergroup/join?id=QP5K5Q&role=attend&pw=8%5E-%5CzqX

Meeting ID: QP5K5Q
Attendee Entry Code: 8^-\zqX

Регистрация: http://www.clicktoattend.com/?id=138358

Upd: уточню - начало в 00:00 2го июня из-за разницы во времени :)

понедельник, 25 мая 2009 г.

ESX 4 под ESX 3

Если у вас не хватает железа на то, чтобы посмотреть на ESX4 - рано расстраиваться.

Провел эксперимент - поставил ESXi 4 (GA) в ВМ под ESXi 3 (3.5u4) и наоборот. ВМ с ESXi 4 на тройке моментально завелась. А вот тройка на четверке, хоть и поставилась, но уже полтора часа пытается загрузиться.

Everything is amazing, but nobody's happy.

Не успела VMware выпустить vSphere с технологией FT, сразу же появились недовольные. Почему всего для одного процессора? Непорядок! Срочно бежать и делать FT для SMP!

Ответ сотрудника VMware на форуме: "Для решения проблему синхронизации двух (однопроцессорных) ВМ потребовались сотни и тысячи рабочих часов самых опытных инженеров и ведущих разработчиков. Решение данной задачи для многопроцессорных машин потребует значительно большего количества времени и, возможно, даже иного подхода."

В тему этого всего (на английский языке):



"Как мир успел ему задолжать что-то, о существовании чего он сам узнал лишь 10 секунд назад?!"

пятница, 22 мая 2009 г.

FT & Split Brain

Dave Lawrence (VMware) рассказал как именно FT борется со Split Brain.

Что делает Fault Tolerance для предотвращения Split Brain ситуаций, когда первичная и теневая ВМ становятся изолированными?

Fault Tolerance (FT) использует файл на диске с номером поколения ВМ. При создании FT машины (включении FT) создается файл на разделяемом хранилище с именем generation.N, где N - счетчик. При подключении теневой машины к первичной, первичная сообщает теневой текущий номер поколения. Как только первичная или теневая машина обнаруживает сбой во второй половине, она пытается переименовать файл в generation.N+1. При успехе машина переключается в режим первичной (или остается первичной) и дает команду на построение теневой машины, чтобы остаться защищенной от сбоев. Если же переименование файла не удалось, значит его уже переименовала вторая машина в паре и эта машина выключается.

Таким образом дисковая система служит для предовращения переключения обеих машин в режим первичной и соотв. Split Brain ситуаций.

3D в виртуальных машинах

Встретилось на просторах инета.
Ни у VMWARE ни у Parallels нет того предложили чуваки из SUN! VirtualBox начиная с версии 2.2.2. поддерживает софтверную 3Д акселерацию!

Потрясающий прорыв! Если не считать того, что Parallels поддерживает аппаратное 3D ускорение в Parallels Workstation Extreme на рабочих станциях HP Z800.
Ну и VMware поддерживает аппаратное ускорение для виртуальных машин в VMware Workstation 6.5.
Как говорится, мануалы надо читать, а не курить. Ну и желательно, конечно, почитать еще мануалы и спеки на то, с чем сравниваешь.

VI 3.5 -> vSphere 4 upgrade

Краткая сводка с фронта:
- ESXi Embedded и ESX успешно проапгрейдились с 3.5u4 до 4.0
- апгрейд прошел без даунтайма, VMotion между 3.5u4 и 4.0 работает
- кластер из смешанных хостов 3.5 и 4.0 прекрасно работает

Тестовая зона успешно переведена на 4.0

четверг, 21 мая 2009 г.

среда, 20 мая 2009 г.

Летняя встреча VMware User Group Russia

Начинается подготовка к летней встрече и поэтому вопрос всем читателям, планирующим там оказаться:
1) доклады на какие темы вы хотите услышать на встрече?
2) готовы ли вы подготовить доклад и его прочитать? Если да, то на какую тему?

Кто все эти люди?



Угадайте, кто из них VMware vExpert? :)

USB в виртуальной машине

Are USB devices supported in a VM in ESX 4?
• Yes, but only devices attached to a host can be presented to a VM. Devices attached to a machine running the vSphere Client cannot be redirected and presented inside a VM by ESX/ESXi alone. (USB redirection can be found in VMware View and is supported through RDP.)
• USB support requires installation of VMware Tools.

Поддерживаются ли USB устройства в VM в ESX 4?
• Да, но только устройства, подключенные к хосту, могут быть презентованы виртуальной машине. Устройства, подключенные к машине, на которой запущен vSphere клиент не могут быть перенаправлены и подключены к виртуальной машине напрямую. (Однако перенаправление USB есть в VMware View и поддерживается протоколом RDP)
• Поддержка USB требует установки VMware Tools.

Информация неофициальная, но с учетом того, что в виртуальных машинах появились USB контроллеры, похожа на правду. Увы, проверить не могу. Ждем завтрашнего релиза :)

Thnx to Mr. Nobody

вторник, 19 мая 2009 г.

Куда уходит место на дисках?

Одна из проблемных областей администраторов платформ виртуализации - куда девается место на дисках?

А все просто.

Overprovisioning

Администраторы забывают, что они больше не работают с железками и выделяют дискового пространства сразу от души, на вырост. Оно и понятно - если купить сервер с дисками, скажем, по 36, то очень скоро место может просто кончиться и единственный вариант - выкидывать эти диски и покупать новые, после чего переносить данные.
В виртуальной среде и конкретно VMware VI диски виртуальных машин можно увеличивать онлайн. Не хватает 8ГБ - на тебе еще 2, до 10. Все ограничивается только необходимостью работы с файловой системой и расширением разделов. Увеличить диски можно всегда, а вот уменьшить - нет, увы.
Каждый гигабайт, который выделен машине без необходимости, "на вырост", лежит мертвым грузом. И его нельзя использовать для других машин. Каждый гигабайт, который выделен "на вырост" без необходимости, будет лежать мертвым грузом очень долго, увеличивая расходы на СХД.

Неразумное использование снапшотов

Некоторые администраторы используют снапшоты не в качестве временной меры, создания точки отката при внесении изменений, а на постоянной основе. Делаем что-то - снапшот. И не удаляем. А вдруг понадобится? Получается как в анекдоте про дохлую кошку: "Не пригодилась".
Снапшоты в абсолютном большинстве случаев не нужны больше, чем на неделю. Патчим систему? Снапшот. Патчи работают, все ОК? Удаляем снапшот.
Практически слышу сразу "А если что-то случится после, то куда откатываться?". Господа, а бэкапы на что? Снапшот - это _быстрый_ откат, это не средство резервного копирования.

Более того, если объединить постоянное использование снапшотов и overprovisioning - вообще грустная картина. Поставили голую систему (пусть будет Windows 2003) на диск в 20ГБ, снапшот. Поставили патч - снапшот, поставили еще что-то - снапшот. Да, у ВМ 2ГБ памяти. Итого имеем, скажем, 5 снапшотов со средней дельтой в 1,5ГБ, и финальное использование диска в 30% (6ГБ). Что это значит на практике? А на практике это значит, что 12ГБ дискового пространства потрачены впустую только на overprovisioning. Каждый снапшот занимает 2ГБ (снимок RAM) + 1,5ГБ (дельта) = 3,5*5 = 17,5ГБ. Итого, ВМ, которой требуется всего 6ГБ впустую расходует почти 30ГБ дискового пространства СХД. Почему, кстати, 12 - потому что чистое использование диска 6ГБ, но 2ГБ свободными оставить стоит хотя бы из соображений дефрагментации (Windows рекомендует не менее 15% диска) и небольшого(!) запаса рабочего места.

В этом случае машина нам обошлась в 37,5/8 = 4,7 раза дороже по статье СХД, чем должна была. (написано по мотивам реальной ВМ)

Неразумное использование снапшотов также и не дает увеличить диск для ВМ, если место на нем кончается - все снапшоты сначала надо будет накатить.
Постоянно растущие снапшоты снижают быстродействие и дисковой системы для разделяемых хранилищ из-за постоянных блокировок метаданных.

Поэтому:

1) В случае с ВМ заповедь "много не мало" работает в обратную сторону. Семь раз подумай, прежде чем добавить место, отрезать уже не получится.
2) Не храните снапшоты без крайней необходимости, пользуетесь бэкапами.

ESX 4 может виртуализовать даже сам себя

Eric Gray (VCritical) поделился рецептом рекурсивной виртуализации ESX 4.

image

После инсталляции ESX 4 необходимо изменить настройки vSwitch на следующие:

image

Создайте новую ВМ следующей конфигурации (выберите "Custom")

  • Virtual Machine Version 7
  • Guest OS: Linux / Red Hat Enterprise Linux 5 (64-bit)
  • 2 VCPUs, 2GB RAM
  • 2 NICs - e1000
  • LSI Logic Parallel
  • Новый диск - разумного размера

    После этого подключите в виртуальный CD-Rom ISO с ESX 4 и поставьте как гостевую ОС.

    image

    После установки добавьте новый виртуальный ESX к vCenter 4 и создайте новую ВМ.

    image

    Если не требуется запускать ВМ в этом виртуальном ESX, то здесь можно остановиться. При попытке запустить ВМ будет выдаваться следующее сообщение:

    image

    Чтобы обойти это, достаточно всего одной минуты. Выключите виртуальный ESX и измените настройки ВМ: Edit Settings; Options; Advanced / General / Configuration Parameters… ; Add Row
    Name/Value: monitor_control.restrict_backdoor / TRUE

    image
  • VMware купила Citrix?



    HP явно что-то знает! :)

    понедельник, 18 мая 2009 г.

    Тема облаков раскрыта!

    Хочу поделиться ссылкой на отличный ресурс, посвященный облакам.

    Smart Cloud

    И раскрывая тему облаков, более строгое определение их типов:

    Software as a Service (SaaS) - Программное обеспечение как сервис.

    Под данным определением понимается предоставление доступа к программам, запущенным на серверах, через веб-браузер. В качестве примера можно привести веб-интерфейс к серверам электронной почты, форумы, социальные сети (В Контакте, Одноклассники), фотоальбомы, а также программы, ранее доступные только посредством установки их на локальный компьютер. Известнейшим разработчиком офисных программ, использующих веб-браузер, является компания Google. Ее коллекция программ под названием Google Docs позволяет редактировать файлы и таблицы прямо в сети Интернет.

    Platform as a Service (PaaS) - Платформа как сервис.

    Если Вам нужна операционная система Линукс, или веб-сервер, или вы хотите построить свой продукт на основе систем управления базами данных Oracle или MySQL, Вам необязательно подбирать аппаратное обеспечение, устанавливать и настраивать программы. Услуга "Платформа как сервис" предоставляет возможность гибкого и широкого выбора настроенных под Ваши задачи виртуальных вычислительных ресурсов. Одним из примеров может служить доступ к виртуальному Windows XP с установленным на нем офисным пакетом.

    Infrastructure as a Service (IaaS) - Инфраструктура как сервис

    Услуга "Инфраструктура как Сервис" предназначается тем пользователям, которым нужны мощные вычислительные ресурсы. Последние, как правило, стоят больших денег - не только при покупке, но и в обслуживании. Виртуальная инфраструктура позволяет съэкономить на аппаратном обеспечении и на услугах IT (например, администрирование серверов, арендная плата за место, электричество итп). Также данная услуга расчитана на масштабируемость вычислительных ресурсов, например, количество оперативной памяти, процессоров, дискового пространства можно изменять буквально на лету. Одной из разновидностей IaaS стала услуга Data Storage as a Service (dSaaS) - Хранение данных как сервис. Самыми известными представителями IaaS и dSaaS на сегодняшний день являются Elastic Compute Cloud (EC2) и Simple Storage Service (S3) компании Amazon LLC.

    http://smart-cloud.ru/faq/31-general/52--cloud-computing

    четверг, 14 мая 2009 г.

    FT & Snapshots

    В качестве ответа на вопрос на сегодняшнем вебинаре по FT & HA.

    Fault Tolerance не совместим со снапшотами и соотв. их не поддерживает.

    Required

    Virtual Machines: Ensure that there is no user requirement to have
    virtual machine snapshots since these are not supported for VMware
    FT. Delete snapshots from existing virtual machines before protecting
    with VMware FT.

    http://www.vmware.com/files/pdf/vsphere-migration-prerequisites-checklist.pdf

    Почему они несовместимы? Для FT обязательным требованием является thick диск, и даже не просто thick, а eagerzeroedthick, поскольку FT очень чувствительно относится к изменению метаданных. А снапшот виртуального диска представляет собой сам диск и растущий дельта файл, который как раз метаданные изменяет ровно так же, как и thin диск.

    Поскольку прозвучал вопрос и про eagerzeroedthick - напомню разницу между ним и просто thick. Thick при создании полностью выделяет место в объеме самого диска, и при первом обращении к каждому блоку сначала его очищает. На практике это моментальное создание, а затем некоторое время низкая дисковая производительность (пока не будет обращений к большинству блоков). Eagerzeroedthick очищает весь диск при создании, поэтому создается такой диск довольно долго, но сразу же после создания выдает максимальные IOPS.

    среда, 13 мая 2009 г.

    Как устроен VMFS раздел

    Понимание архитектуры VMFS очень важно для правильного обслуживания инфраструктуры Vmware. Когда журнал хранилища пестрит ошибками, необходимо точно оценить состояние VMFS-раздела и провести необходимые работы по исправлению ошибок.

    Подробности об устройстве VMFS - здесь.

    На правах рекламы

    Блог Андрея Вахитова: vmind.ru - VMind. Сайт о виртуализации.

    Oracle покупает Virtual Iron

    Сегодня официально подтвердился слух о покупке Oracle компании Virtual Iron, имеющей самый коммерчески успешный продукт на базе Xen.

    Таким образом на руках у Oracle оказываются сразу три Xen-based продукта: Oracle VM, Sun xVM и Virtual Iron. Очевидно, что чем-то придется жертвовать. Рискну предположить, что основой платформы виртуализации от Oracle станет Virtual Iron, в который в той или иной степени вольется остальное.

    А что же касается Xen, то по факту остаются основными игроками на рынке Oracle и Citrix, возможно какое-то незначительное влияние окажет Novell.
    RedHat ранее уже объявила об отказе от Xen в пользу KVM, Linux Foundation так же рекомендовали всем мэйнтейнерам дистрибутивов переход на KVM.

    Облака - белогривые лошадки

    Модный термин в последнее время, так что же это? Частично я уже писал об этом, но хочется вынести тему в отдельный пост и раскрыть шире.

    Говоря академически, Облако - это уровень абстракции от физического оборудования до чистых ресурсов. Т.е. на уровне облака больше не говорится о физических интерфейсах и железках, речь идет лишь о мегагерцах просессорной мощности, мегабайтах памяти и дисков, мегабитах сетевого соединения. Нас не волнует физическая реализация, этим занимаются инженеры по инфраструктуре.

    Облако - это тот уровень абстракции, который необходим для воплощения понятия computing as a service, он же utility computing. На облачном уровне у нас больше нет сервера1, сервера2 и т.д... У нас есть объединенные вычислительные ресурсы, которые мы можем как-то делить между задачами.

    В принципе, облака можно разделить на два типа - облака для приложений и облака для машин. В чем же между ними разница?

    Облака приложений предоставляют ресурсы приложениям, разработанным специальным образом для этого облака. Не нужно заботиться об ОС, и прочих инфраструктурных вопросах, только чистое прикладное приложение. Вся инфраструктура и ее поддержка лежит на специалистах. Пример облака приложений - Windows Azure.

    Облака для машин предоставляют ресурсы виртуальным машинам, и по сути являются более низкоуровневыми облаками или в каком-то смысле менее облачными :)
    Атомарная единица здесь не приложение, а виртуальная машина. На которую можно установить любую ОС и вообще обращаться как с обыкновенным сервером.

    В чем же здесь облачность? В том, что нас снова не волнует на каком именно физическом сервере исполняется ВМ, степени загрузки физических процессоров и тому подобное. Мы заказали столько-то мегагерц мощности, и мегабайт памяти - мы их получим. Не хватает - добавим без долгих заказов новых процессоров или модулей памяти. Выгодное отличие от облаков приложений в том, что не требуется переписывать уже существующие приложения. Минус - необходимость администрирования дополнительных инфраструктурных слоев.

    Простейший пример подобного облака - большой Fully automated DRS кластер ESX. Но при одном условии - каждая ВМ требует ресурсов, значительно меньших, чем ресурсы одного хоста. Как только уровень ресурсов становится сравним, облако рассеивается на отдельно стоящие хосты.

    Облака - это не пустое понятие, у нас с вами уже есть в серверных свои собственные маленькие белогривые лошадки :)

    вторник, 12 мая 2009 г.

    В качестве полемики с сотрудниками MS

    А конкретно с Алексеем Кибкало.

    На данный момент известно 14 критических обновлений безопасности (сравним с 36 критическими и 31 обновлений безопасности для VMware ESX Server 3.5 за тот же срок), а всех исправлений к Windows Server 2008 на сегодня известно 41 (сравним с 148 исправлениями для VMware ESX Server 3.5). Очевидно, что большая часть новых обновлений включает в себя часть предыдущих, заменяя их. Однако, если их устанавливать их не все сегодня, а постепенно — сразу после выхода, то количество установок было было бы именно такое. Эти числа приведены для полного варианта установки и наличии всех ролей и функций ОС.

    Насколько же изменится ситуация в варианте установки Server Core?

    Говоря языком цифр, получится следующее. Для Server Core со всеми ролями и функциями количество критических обновлений меньше на 35%, суммарное количество всех обновлений на 59%, а перезагрузок при их установке потребуется на 62% меньше, чем для полного варианта установки.


    1. Наличие бОльшего количества обновлений и даже критических обновлений для ESX не говорит ни о чем, кроме бОльшего количества обновлений.
    2. В обновления ESX включаются так же и обновления драйверов (!). Напомните пожалуйста, как там с обновлением драйверов у Hyper-V?
    3. При наличии лицензии VMotion (Live Migration) даунтайма для сервисов при установке обновлений на хост нет вообще. Сравним с Hyper-V, у которого Live Migration только-только выйдет.
    4. Обновления VMware выпускаются обычно сразу по несколько и ставятся за один раз, что автоматически опровергает расчеты количества перезагрузок.

    Итого, вроде и цифры есть, а толку в них?

    Интересна и реакция данного сотрудника Microsoft на вот этот пост у меня в блоге.

    Даже не буду комментировать бред параноидального MS-ненавистника.

    Статья состоит из списка ложных и ошибочных утверждений. Автор занимается как раз черным маркетингом без зазрения совести. Если есть интерес подискутировать, - велкам, я могу написать ответную заметку (мои комментарии с цифрами там удаляют)...


    У меня возник вопрос: параноидальным MS-ненавистником назвали Stu (vinternals.com) или меня? И лично я не припомню никаких комментариев с цифрами, не говоря уже о том, чтобы я что-то удалял (за исключением спама).
    Да и MS-ненавистником я не являюсь ни в какой мере, за исключением пожалуй, неприязни к многим методам маркетинга MS. И я рад тому, что в рунете есть возможность дискутировать на эту тему с НЕмаркетинговыми специалистами.

    Как работает маркетинг Microsoft?

    В связи с очередным обострением священной войны между Hyper-V и ESX силами Scott Drummonds (VMware) и Jeff Woolsey (Microsoft) (1, 2, 3), нашлась интересная ссылка (спасибо Duncan Epping).

    Строго говоря, не столько само содержание интересно, сколько его официальное подтверждение, поскольку в неофициальном режиме я многократно слышал об этом от представителей Microsoft.

    Upd: В данном случае интересно то, что это прямые слова сотрудника Microsoft, а не пересказ кем-то из третьих лиц. С учетом того, что хоть это мнение и не официальная позиция Microsoft, но встречается (точнее встречалось) у практически любого сотрудника MS как под копирку.

    Краткое содержание.

    Microsoft утверждает, что необходимость в Live Migration (VMotion) - миф. Абсолютное большинство заказчиков все равно планируют обслуживание и установку обновлений на физические хосты в офф-тайм, нерабочее время. Так что нет никакой разницы между 5-20 секундами даунтайма для Quick Migration и менее одной секунды даунтайма для VMotion. Их просто некому будет замечать.

    Датировано 24.04.2008

    Сравните с текущей позицией Microsoft и размахиванием Live Migration как сверхдостижением, которое нужно всем. Настолько, что Microsoft не стесняется им размахивать в Beta и RC - ведь у них есть теперь Live Migration!

    Есть и еще один "факт", который полюбился маркетингу Microsoft - ведь у VMware для виртуализации на один слой больше! У VMware есть слой виртуализации, гипервизор, в то время как у Microsoft есть просто ОС. И тут действительно, добавить к словам Duncan Epping нечего, "вы запускаете ваши ВМ напрямую на железе?"

    понедельник, 20 апреля 2009 г.

    Презентация vSphere 21го апреля

    Завтра, в 19.00 по московскому времени состоится официальная презентация vSphere. Лично я также польщен предложением российского представительства VMware выступить на презентации как инженера реального заказчика, решающего реальные задачи при помощи VMware Virtual Infrastructure.

    В пятницу, 24го апреля, выступлю с презентацией vSphere на заседании нижегородского MCP клуба.

    пятница, 17 апреля 2009 г.

    vSphere: лицензирование

    Сегодня про это не пишет только очень ленивый. Я, конечно, ленивый, но не очень - поэтому тоже напишу :)

    Какие функции включены в пакеты:



    Маппинг лицензий VI3 при переходе на VI4 aka vSphere:



    И маркетинговое обоснование включения тех или иных функций в пакеты.

    четверг, 9 апреля 2009 г.

    Скорость сети в ESXi

    Недавно разговор заходил о том, какую скорость выдает ESXi виртуальным машинам.

    Итак, две физические машины SUN x4150, 4x SAS HDD RAID5. Distributed vSwitch с 1 аплинком, 82571EB. ESXi Installable 4.0RC build 140815.

    На каждом сервере по одной машине с Xtravirt Virtual SAN, с одной сетевой картой VMXNET3 и thick диском 256GB. Запущена первичная синхронизация дисков. Средняя скорость сети согласно показаниям самих машин 78 500 KB/sec, показания загрузки канала в vCenter для хоста колеблются от 78 200 до 83 200 KB/sec.

    среда, 8 апреля 2009 г.

    Мифы и реальность Microsoft

    Stu (vinternals.com) нашел очень интересный документ, опубликованный самой Microsoft, описывающий достижения Microsoft по консолидации серверов на платформе Hyper-V. Только холодные и бездушные цифры. Сама статья и пост Stu на английском, поэтому перевод мой (в сокращенном виде).

    IT служба Microsoft разработала стандарт, определяющий, какие именно машины подлежат виртуализации. Под него подпало большое количество лабораторных и development серверов с очень низкой загрузкой и требованиями. Для хостинга данных серверов используются 4-сокетные серверы с 16 и 24 ядрами и 64ГБ памяти, что дает возможность запуска большого количества виртуальных машин (ВМ) со средним соотношением 10.4 ВМ на хост.


    Представьте себе, сервер с 16 ядрами и более 32ГБ памяти тянет только 10.4 "лабораторных машины с очень низкой загрузкой". А теперь представьте сколько "боевых" машин с рабочей нагрузкой смогут там работать.

    Для рабочих машин Microsoft IT использует 2-сокетные серверы с 8 или 12 ядрами и 32ГБ памяти.
    ...
    В среднем, хост-серверы с 8 процессорами и 32ГБ памяти хостят 5.7 ВМ на хост.


    Меньше 6 машин на 8-процессорную железку с 32ГБ!

    Затем они переходят к обалденной "высокой доступности". Убедитесь, что вы крепко сидите, и вообще находитесь в каком-нибудь неофициальном месте типа своего дома, дверь в ванную открыта и скорая на подходе. Потому что очень вероятно, что вы просто обмочите себе штаны и развалитесь напополам со смеху, когда прочитаете эти жемчужины мудрости:

    При использовании Windows Server 2008 failover clustering необходимо хранить каждую ВМ на отдельном LUN. Поскольку администратор должен предоставить доступ к каждому разделяемому хранилищу под той же буквой, то в failover cluster может работать максимум 23 машины. Microsoft IT может обойти данное ограничение, используя точки монтирования и группы виртуальных машин, но было сочтено, что в данной конфигурации администрирование станет слишком сложным. Из-за этого ограничения Microsoft IT приняла в качестве стандарта использование кластеров из 3-х узлов, сконфигурированных так, чтобы выдерживать отказ 1 узла.


    Я даже не знаю что сказать. Из-за своего дурацкого дизайна (точнее двух сразу, с использованием букв, и 1 ВМ на LUN), они расходуют впустую огромное количество процессорной мощности и памяти.
    А теперь вставьте выпавшую на предыдущем абзаце челюсть и крепко ее держите:

    При миграции машины в Windows Server 2008 failover cluster сервисы должны сохранить состояние ВМ, передать контроль над разделяемым хранилищем другому узлу и перезапустить ВМ из сохраненного состояния. Несмотря на то, что процесс занимает всего несколько секунду, ВМ остается в этот промежуток времени недоступной. Если же администратору необходимо перезагрузить все хосты в кластере (например, при установки обновлений безопасности), ВМ в кластере придется мигрировать несколько раз, и соотв. каждый раз ВМ будут недоступны. Таким образом Microsoft IT определила, что виртуальные машины высокой доступности могут иметь большее время недоступности, чем виртуальные машины на одиночных серверах, в случаях простых запланированных простоев, таких как установка обновлений ПО.


    Кажется, кабина разгерметизировалась. Виртуальные машины "высокой доступности", размещенные в кластере, могут иметь большее время недоступности, чем обычные, на одиночных хостах.

    Теперь мы знаем, зачем Microsoft выпускает эти дурацкие маркетинговые видеоролики - чтобы отвлечь внимание от неприятной действительности, которую они знают сами слишком хорошо.

    Общий смысл статьи очевиден. Все расчеты стоимости можно выкинуть в помойку, теорию и коэффициенты консолидации тоже. Сравнения производительности к черту. О сравнении эффективности датацентров можно даже и не задумываться. В свете холодных и бездушных фактов маркетинговые ходы для VMware не нужны. С Microsoft, рождающей подобные документы и выставляющей их в публичный доступ, VMware просто не нужен никакой маркетинг. Заранее прошу прощения за то, что ставлю под вопрос рабочие места 90% отдела маркетинга VMware. Пожалуйста, в любом случае оставьте Джона Тройера (John Troyer), ему придется восстанавливать сообщество после того, как мы все помрем со смеху.

    Оригинальная статья Microsoft: http://technet.microsoft.com/en-us/library/cc974012.aspx
    Пост Stu: http://vinternals.com/2009/04/microsoft-myths-and-realities