Продолжаем тему граблей, щедро расставленных и разложенных в самых неожиданных местах.
Сегодня грабли для тех, кто использует Oracle DB для vCenter.
Знакомая картинка, не правда ли?
Решение было под самым носом, как всегда.
пятница, 27 ноября 2009 г.
среда, 25 ноября 2009 г.
vSphere 4u1: EVC
О том, что вышел первый апдейт к vSphere, не написал только ленивый :)
Но далеко не все новые фишки 4u1 были указаны в what's new. И в частности одна из самых вкусных - это изменение в EVC.
Напомню, EVC (Enhanced vMotion Compatibilty) - режим работы кластера, при котором CPUID Mask для всех ВМ выставляется автоматически. И соотв. можно больше не задумываться о проблемах миграции машин между хостами с разными поколениями процессоров, все будет сделано за вас. Основное неудобство - EVC можно было включить только для кластера, в котором нет ни одной включенной ВМ.
В 4u1 EVC для кластера можно включить даже если есть работающие ВМ. Гип-гип-УРА!
Но далеко не все новые фишки 4u1 были указаны в what's new. И в частности одна из самых вкусных - это изменение в EVC.
Напомню, EVC (Enhanced vMotion Compatibilty) - режим работы кластера, при котором CPUID Mask для всех ВМ выставляется автоматически. И соотв. можно больше не задумываться о проблемах миграции машин между хостами с разными поколениями процессоров, все будет сделано за вас. Основное неудобство - EVC можно было включить только для кластера, в котором нет ни одной включенной ВМ.
В 4u1 EVC для кластера можно включить даже если есть работающие ВМ. Гип-гип-УРА!
Ярлыки:
EVC
вторник, 24 ноября 2009 г.
Хорошие новости от Starwind
Компания Starwind совершенно бесплатно готова предоставить лицензию любому обладателю звания vExpert, VCP или MCP. В том числе лицензию на последнюю разработку, Starwind 5.0 с высокой доступностью.
Если у вас статус VCP, то пишите на vmware@starwindsoftware.com, MCP пишут на hyper-v@starwindsoftware.com.
Если у вас статус VCP, то пишите на vmware@starwindsoftware.com, MCP пишут на hyper-v@starwindsoftware.com.
Ярлыки:
Starwind
четверг, 19 ноября 2009 г.
ESX vs Hyper-V: горячее подключение/отключение дисков
VMware vSphere 4 поддерживает несколько вариантов горячего управления дисковой подсистемой:
- Расширение VMFS разделов
- Горячее расширение виртуальных дисков
- Горячее подключение/отключение виртуальных дисков
- Выделить дополнительное место / физические диски на SAN для соответствующего LUN
- Расширить VMFS Datastore, используя выделенное только что место
- Расширить существующие или создать новые виртуальные диски
- Расширить тома в соответствующих ВМ
понедельник, 16 ноября 2009 г.
Грабли: отваливаются бэкапы, миграция и клонирование ВМ etc
Проблема: начали отваливаться бэкапы в процессе, невозможно склонировать ВМ или перенести на другой datastore. Файловые операции в консоли ESX отваливаются по таймауту.
Причина: скорее всего одна из ВМ решила полностью нагрузить дисковую систему и в частности datastore, на котором и наблюдаются проблемы. Напоминаю, что нагрузка на дисковую систему измеряется не в сотнях мегабайт в секунду, а в операциях в секунду - IOPS.
Как пример из реальной жизни - машина с syslog сервером, из-за которой все и случилось, генерировала примерно 1.5-2 мегабайта в секунду. Вроде бы смешная цифра для Fibre Channel дисковой полки с 10 дисками, но эти 2 мегабайта в секунду с другой стороны равнялись 1200 IOPS - а больше дисковая полка просто не могла выдать.
Решение: размещение выскоконагруженных по дисковым операциям ВМ на выделенных datastore, размещающихся на выделенных дисковых группах. Почему критичны выделенные дисковые группы в данном случае? При размазанных дисковых группах, когда LUN'ы нарезаются на одной большой дисковой группе, стоит вырасти дисковой нагрузке от одной ВМ - ВСЕ datastore на LUN'ах с этой дисковой группы просядут.
Как отследить машинку-негодяйку? В первую очередь esxtop, разумеется. Но значительно удобнее в таких случаях использовать Veeam Monitor, у которого, кстати, есть Free Edition.
Причина: скорее всего одна из ВМ решила полностью нагрузить дисковую систему и в частности datastore, на котором и наблюдаются проблемы. Напоминаю, что нагрузка на дисковую систему измеряется не в сотнях мегабайт в секунду, а в операциях в секунду - IOPS.
Как пример из реальной жизни - машина с syslog сервером, из-за которой все и случилось, генерировала примерно 1.5-2 мегабайта в секунду. Вроде бы смешная цифра для Fibre Channel дисковой полки с 10 дисками, но эти 2 мегабайта в секунду с другой стороны равнялись 1200 IOPS - а больше дисковая полка просто не могла выдать.
Решение: размещение выскоконагруженных по дисковым операциям ВМ на выделенных datastore, размещающихся на выделенных дисковых группах. Почему критичны выделенные дисковые группы в данном случае? При размазанных дисковых группах, когда LUN'ы нарезаются на одной большой дисковой группе, стоит вырасти дисковой нагрузке от одной ВМ - ВСЕ datastore на LUN'ах с этой дисковой группы просядут.
Как отследить машинку-негодяйку? В первую очередь esxtop, разумеется. Но значительно удобнее в таких случаях использовать Veeam Monitor, у которого, кстати, есть Free Edition.
Ярлыки:
ВМ,
disk,
troubleshooting
пятница, 13 ноября 2009 г.
Грабли: vCenter 4 и ESX3 - не хочет работать Storage VMotion
Дано: vCenter 4 управляет смешанной инфраструктурой из ESX 4 и 3.5, все лицензии Enterprise. ESXi 3.5 - standalone, не в кластере.
Проблема: невозможно совершить Storage VMotion для ВМ на ESXi 3.5, поскольку "VMotion is not licensed for host".
Возникает вопрос - как это нет лицензии, у меня же Enterprise?!
Решение: для VMkernel интерфейса включить поддержку VMotion, даже если мы не собираемся мигрировать машины на другие хосты. VMotion для 3.5 является отдельным продуктом и требует свою собственную лицензию, и потому соотв. изначально запрашивается лицензия только ESX Standard + vCenter Agent. Чтобы хост получил лицензию VMotion, он должен ее сначала попросить у сервера лицензий, а если нет VMotion интерфейса, то и просить нечего :)
Проблема: невозможно совершить Storage VMotion для ВМ на ESXi 3.5, поскольку "VMotion is not licensed for host".
Возникает вопрос - как это нет лицензии, у меня же Enterprise?!
Решение: для VMkernel интерфейса включить поддержку VMotion, даже если мы не собираемся мигрировать машины на другие хосты. VMotion для 3.5 является отдельным продуктом и требует свою собственную лицензию, и потому соотв. изначально запрашивается лицензия только ESX Standard + vCenter Agent. Чтобы хост получил лицензию VMotion, он должен ее сначала попросить у сервера лицензий, а если нет VMotion интерфейса, то и просить нечего :)
Ярлыки:
ESX,
ESXi,
troubleshooting,
VMotion
четверг, 5 ноября 2009 г.
Все больше и больше слоев FUD'а
Невероятно, но старая байка про то, что VMware добавляет еще один слой, до сих пор рассказывается Microsoft в их Virtualization Comparison Brochure. Довольно удивительно и совершенно нечестно - использование термина "слой" лишь для порядка следования в иерархии, но не в смысле объема. И что, черт побери, слой виртуализации делает поверх слоя приложений?
В данном случае Microsoft хочет доказать, что если у вас нет виртуализации VMware, то нет и VMware. В общем-то соответвует действительности, но слоев на самом деле столько же.
Я взял право сделать несколько поправок к материалу Microsoft и рад показать еще три более корректных варианта представления слоев виртуализации.
В данном случае Microsoft хочет доказать, что если у вас нет виртуализации VMware, то нет и VMware. В общем-то соответвует действительности, но слоев на самом деле столько же.
Я взял право сделать несколько поправок к материалу Microsoft и рад показать еще три более корректных варианта представления слоев виртуализации.
Подписаться на:
Сообщения (Atom)