вторник, 29 июля 2008 г.

VI 3.5u2 & HA

Столкнулся с интересной проблемой.

В HA кластере у меня 2 сервера с 2-мя сетевыми портами и 1 с 4-мя. VI 3.5u1 ругался на сервере с 4-мя, что не хватает избыточности портов сервис-консоли, хотя HA работал. Я добавил еще одну сервис-консоль на другой vSwitch, и все, предупредение исчезло. HA продолжил работу.

После обновления до 3.5u2 HA-агент на сервере с 4-мя портами отказывался работать категорически. После раскопок в логах было выяснено, что этот сервер имеет network that don't exist on cluster members. И указывался порт второй сервис консоли, работавший в сети Service Console 2. Удалил этот порт. HA-агент успешно запустился и никаких предупреждений о недостаточной избыточности сервис-консоли не появилось.

понедельник, 28 июля 2008 г.

Virtual Infrastructure 3.5 update 2

При обновлении существующей Virtual Infrastructure до 3.5u2 возможна следующая проблема: некая программа dbtool.exe валится с unhandled exception и установка прерывается. Соотв. обновление не представляется возможным.

Это проблема с обновлением Update Manager. Лечится предварительным удалением Update Manager, а потом установкой.

среда, 23 июля 2008 г.

Паравиртуализация в VMware VI

Novell в SUSE Linux Enterprise SP2 включила поддержку VMI - virtual machine interface, нового индустриального стандарта паравиртуализации. Иными словами, SLES10 SP2 будет иметь значительно меньше накладных расходов при работе в виртуальной машине. Также поддержка VMI была включена в ядра начиная с 2.6.21, поэтому любой Linux с ядром не ниже 2.6.21 будет получит ускорение. Для Enterpise уровня Linux обычно очень консервативен и новые ядра включаются в дистрибутивы очень редко и только проверенные, вылизанные и оттестированные со всех сторон, так что все новые "фишки", такие как VMI, необходимо инженерам вручную интегрировать в текущее ядро.

Включается в VMware VI это очень просто: VM / Edit settings / Options / Advanced - Paravirtualization.

Обращаю ваше внимание, что VMI паравиртуализация в VI работает только для 32-битных машин, 64-битная просто выругается и встанет на этапе загрузки.

Кстати, это серьезный аргумент при выборе дистрибутива Linux: RedHat или SUSE. RedHat однозначно не будет включать VMI в RHEL5, и до сих пор не определилась по вопросу включения поддержки VMI в RHEL6.

ESXi будет бесплатным

VMware собирается выпустить на следующей неделе ESXi 3.5 update 2, причем сделать его бесплатным.

  • ESXi никак не будет ограничен в функциональности
  • Тем, кто купил текущую версию ESXi напрямую в VMware Store, будет предложен возврат денег (rebate)
  • ESX, как гипервизор + сервис-консоль, не будет прекращен и продолжит развиваться по крайней мере некоторое время
  • Гипервизор для ESX и ESXi останется один и тот же
  • VMware сервер не будет прекращен, поскольку VMware видит для него иную нишу, чем для ESXi

Как этот шаг VMware, гранда виртуализации для x86, отразится на рынке? Основным источником дохода для вендоров станет сфера управления серверами и виртуалками, автоматизации, интеграции и тому подобное. С учетом наличия у VMware полного спектра продуктов, некоторым игрокам на рынке станет очень нелегко. Помимо этого, VMware с продуктом класса Enterprise попросту ворвется на рынок решений для малых компаний, серьезно поколебав текущий расклад сил на нем.

четверг, 10 июля 2008 г.

ВМ и резервирование IP по DHCP

Иногда хочется, чтобы виртуальная машина получала один и тот же IP, а статически его прописывать на машине нет желания. Тогда приходит на помощь резервирование IP на DHCP сервере, чтобы этот адрес доставался всегда только это конкретной машине. Но DHCP требует MAC адрес для данной процедуры.
В VI клиенте у включенной машины MAC нельзя скопировать из соотв. поля - оно просто заблокировано только для чтения. Вместо ползания по VI клиенту, кликания мышкой и переписывания вручную можно вытащить MAC прямо из конфига виртуальной машины. Особенно это критично для десятков машин разом - стоит лишь набросать простой скриптик.

Открываем ssh сессию на ESX сервер

#cat /vmfs/volumes/DataStore/VirtualMachine/VirtualMachine.vmx | grep Address

ethernet0.generatedAddress = "00:50:56:b7:53:29"

Если сетевых карт несколько, то выведутся MAC адреса для всех карт

ESX и внешний syslog

Централизованный syslog сервер - вещь полезная в сети. И очень бы приятно было на нем и ESX серверы отслеживать.

1. Добавляем в /etc/syslog.conf ESX сервера:

*.* @syslog-ip

2. Перезапускаем syslogd:

#service syslog restart

3. Открываем исходящий порт на файрволле

#esxcfg-firewall -o 514,udp,out,syslog

4. Применяем изменения конфига файрволла:

#esxcfg-firewall -l

Windows XP и VMware ESX

Классическая проблема: инсталлятор Windows XP не видит жесткий диск


Проблема в том, что в стандартном дистрибутиве Windows XP отсутствуют драйверы для используемых VMware SCSI контроллеров - BusLogic и LSI Logic. Поэтому при установке нужно драйверы подсунуть на дискетке. Вот здесь архив (177 kB) с образами флоппи-дисков с драйверами.

Этапы установки:
1) Подмонтируем к машине загрузочный ISO с Windows и образ флоппи-диска с нужным нам драйвером, загружаемся с CD.

2)
Windows спрашивает - а не хотим ли мы установить дополнительные драйверы SCSI? Жмем F6 один раз.

3)

Здесь жмем S.

4) И соотв. выбираем драйвер в меню из одного пункта

5)
Теперь драйверы установлены (показан скриншот для BusLogic) и можно продолжать обычную установку XP.

Увеличение размера системного раздела Windows

Ограничение 1: увеличить раздел можно только если он на базовом, а не динамическом диске.
Ограничение 2: у машины должны отсутствовать снапшоты.

Путь решения:

1) Делаем резервную копию машины (или хотя бы системного диска)
2) Выключаем машину
3) В свойствах диска увеличиваем его размер средствами VMware (VM / Edit settings / Hard disk / New size)
4) В машине загружаемся с CD диска (iso) с Partition Magic или любым иным средством, нормально работающим с NTFS.
5) Увеличиваем размер системного раздела до нужного
6) Перезагрузка

Динамические диски поддерживают расширенную функциональность - spanning, RAID0, 1, 5, но загрузчик винды достаточно туп, чтобы рабтать с чем либо иным, кроме единичного раздела или зеркала. Абсолютное большинство же тулзов по работе с разделами не умеет работать с динамическими дисками.

Хотя вроде бы заявляется, что может помочь Paragon Partition Manager 9.0, но он платный и в доступе у меня отсутствует – потому ничего конкретного не скажу.

среда, 9 июля 2008 г.

Кадровые перестановки в руководстве VMware

8 июля совет директоров VMware уволил соосновательницу и президента - Диану Грин (Diane Greene). Диану сразу же заместили ветераном из Microsoft, Полом Маритцем (Paul Maritz), совсем недавно перешедшим в EMC после приобретения его стартапа - Pi.

Фондовый рынок отреагировал крайне негативно, падением акций на 25%. Вдобавок, Cisco, инвестировавшая в VMware в прошлом году 150 M$, отозвала 78.

Сотрудникам VMware запрещено выступать и комментировать ситуацию. Тем не менее, virtualization.info получили неофициальное интервью от одного из сотрудников. Ключевая мысль, содержащаяся в нем, проста: "Назначать ветерана Miscrosoft руководителем компании, большинство сотрудников которой крайне негативно относятся к Microsoft - не самая лучшая идея, и воспринято будет не лучшим образом".
Если совет директоров так и не сможет успокоить сотрудников, то весьма вероятны массовые увольнения.

К слову, из 8 членов совета директоров VMware против увольнения Дианы Грин голосовали 2. Предствители Cisco и Intel, в то время как 6-ро из EMC единогласно за. Cisco и Intel - две компании, по слухам в последнее время крайне заинтересованные в приобретении VMware.

Выбор серверного оборудования для VMware ESX

Как ни странно, но платформа виртуальных машин работает на машинах физических. И здесь у начинающих виртуальных админов встает задача довольно непростая – как выбрать железо? Нет, понятно, что выбор очень сильно сокращен списком совместимости (HCL), но и там простор довольно широкий.

1. сетевых портов должно быть не менее 2х, причем от 2х сетевых карт. Лучше больше, и нормальная рабочая конфигурация, хотя и немножко экономная – это 2 2х-портовых карты. В виртуальном свитче рекомендуется по-возможности комбинировать порты от разных карт. Почему? Просто потому что одна может сгореть и очень вероятно, что сгорят все ее порты целиком, и у нас тогда останется еще одна.

Сетевая конфигурация в данном случае как best practice: 2 виртуальных свитча, на одном сервис-консоль и vmkernel, на втором виртуальные машины. На каждый свитч два сетевых порта, по одному от каждой физической сетевушки. Причем для свитча с консолью и vmkernel назначить использование следующим образом: для сервис-консоли активная NIC0, standby NIC1, а для vmkernel наоборот.

2. памяти должно быть много. Нет, даже не так. Памяти должно быть МНОГО! С учетом широкого распространения многоядерных процессоров, однопроцессорный хост сейчас может обслужить изрядное количество виртуальных машин, а все они хотят память. Из расчета 4 машины на ядро для 2-сокетного 4-ядерного сервера получается 32 машины, вот сами и считайте сколько нужно гигабайт.

3. с точки зрения резервирования 3 средних сервера лучше, чем 1 супер-зверь. Все иногда умирают, и в случае 3х серверов мы потеряем лишь треть ресурсов, в случае 2х – половину, а с одним супермонстром все сразу. И работа встанет.

4. 2 2х-ядерных или 1 4х-ядерный процессор? Или больше?

Вопрос о лицензировании достаточно простой: хотя VMware продает лицензии только по 2 процессора, разрешается их разбивать для односокетных серверов. По опыту эксплуатации виртуальных машин, собственному и почерпнутому на стороне – процессор для вас не будет лимитирующим фактором. Им станет ПАМЯТЬ.
Разумеется, если задачи у вас общего плана, а не чисто вычислительные, но эту специфику лучше знать вам, я высказываю общие соображения. Приводится зачастую аргумент, что в случае 2*2 у нас может сгореть процессор, и мы будем работать, а вот 1*4 - все, встанем. Встанем в любом случае, Hot-swap процессоров VMware и абсолютного большинство серверов пока не поддерживают, а вот лицензия на все те же 4ядра будет стоить вдвое дороже, посколько лицензируемся мы по сокетам. А что это значит в итоге? А в итоге получается, что при использовании 1*4 серверов мы сможем за те же деньги получить VI Enterprise с VMotion, DRS и т.д… В случае же 2*2 только VI Standard.


5. какие процессоры выбрать?

Ответ простой: если вы точно не знаете, что именно будете делать на этих серверах, то берите процессоры с бОльшей частотой и бОльшим кэшем. Т.е. для Intel Xeon 5x серия для общих задач будет лучше, чем 7x – у них выше частота. Если же вы знаете, что вам нужны именно 7x Xeon, и зачем они вам нужны, то текст явно не для вас.

6. стоечный сервер или блейд?

Здесь все только и исключительно зависит от вас и вашей специфики. Впрочем, некоторые соображения я все же выскажу.

Итак, стоечные серверы HP.

- 1 сетевой порт iLO
- 1 порт сервис-консоли (лучше 2)
- 1 порт vmkernel (лучше 2, и/или 2 порта Fibre Channel). Причем еще лучше
2 VMotion и 2 IP Storage порта.
- 2 порта production

От 5 сетевых портов (минимум) до 7 сетевых и 2х FC портов на один (!) сервер. + ровно такое же количество портов на свитчах и такое же количество кабелей. А у нас ведь есть еще Virtual Center и VCB-Proxy. Согласен, их можно запустить и на виртуальных машинах при определенных условиях, но… Итого 3 порта VC, 3 порта VCB (+ 2 FC) и 3*5 портов ESX (+ 3*2 FC) = 21 Ethernet и 8 FC портов. Это в минимуме, а в хорошо резервированной конфигурации цифры другие: 3+3+3*9 = 33 Ethernet + 8 FC портов. И это лишь для 3х ESX серверов. Что делать, если их станет 5, 8, 10? В кабелях не запутаемся?

У блейдов свои проблемы, да. Кто-то говорит, что не хватает пропускной способности на определенных задачах, коммутаторы захлебываются, а в случае стоечных серверов просто коммутатор сменил на помощнее и вуаля. Решать вам.

Легкий iSCSI для ESX

Обнаружил, что в iSCSI Enterprise Target (ietd) наконец пофиксили проблему с монопольным доступом к таргету. Коротко - если к таргету кто-то уже подключился, то его даже было не видно остальным, не говоря уже о совместном использовании. Зачем это нужно? Коротко: для кластеров.
Конкретно сейчас поставил ietd 0.4.16, работает совместный доступ как минимум с 3х хостов. 

Дешевое решение для shared storage для, например, VMware ESX, если не хочется работать по nfs по какой-то причине. Опять же, для raw device mapping для виртуальной машины требуется в кластере ESX'ов.

На RHEL5 встало легко и беспроблемно, конфигурация заняла 1 минуту.

#make
#make install


#cat /etc/ietd.conf 

Target iqn.2001-04.com.example:storage.disk2.sys1.xyz
Lun 0 Path=/dev/sdb,Type=blockio


# service iscsi-target restart