Для полноценной работы почти всего функционала ESX, кроме непосредственного запуска виртуальных машин, требуется shared storage, разделяемое хранилище. Для HA и VMotion, и того, что с ними связано - DRS, Fault Tolerance.
Но что делать если нет денег на HP EVA, NetApp и даже на Starwind iSCSI? Спасут старые добрые пингвины и старенький, уже слабый, но все еще исправно работающий сервер.
Итак, берем сервер, очень желательно с аппаратным RAID и обязательно с гигабитной сетью, и набиваем его дисками. Программная часть: CentOS, iSCSI Enterprise Target и/или стандартный NFS сервер, идущий в комплекте с CentOS. Я взял дистрибутив, бывший под рукой, CentOS 5.3 32bit.
пятница, 28 мая 2010 г.
четверг, 27 мая 2010 г.
Сайзинг ВМ и NUMA системы
С появлением vSphere стало возможным создавать ВМ с 8 процессорами и 255 GB памяти. И хотя я не много видел машин с 32+GB, я получаю много вопросов о 8-процессорных ВМ. Из-за архитектуры современных процессоров ВМ с более чем 4-мя процессорами могут испытывать снижение скорости работы с памятью на NUMA системах. И хотя степень снижения сильно зависит от типа нагрузки, любой администратор должен избегать проблем с производительностью.
Значит ли это, что вы не должны создавать больших ВМ? Нет, если ВМ действительно требует большой вычислительной мощности. Причина, по которой я пишу это - большинство IT отделов руководствуются одной и той же политикой и для физических и для виртуальных машин. ВМ дают множество процессоров и кучу памяти на случай если вдруг это когда-либо потребуется в будущем. И хотя этот подход экономит время и позволяет не ввзяываться в офисную политику, для больших ВМ он может вылиться в ненужные задержки. И вот почему:
Значит ли это, что вы не должны создавать больших ВМ? Нет, если ВМ действительно требует большой вычислительной мощности. Причина, по которой я пишу это - большинство IT отделов руководствуются одной и той же политикой и для физических и для виртуальных машин. ВМ дают множество процессоров и кучу памяти на случай если вдруг это когда-либо потребуется в будущем. И хотя этот подход экономит время и позволяет не ввзяываться в офисную политику, для больших ВМ он может вылиться в ненужные задержки. И вот почему:
среда, 26 мая 2010 г.
vSphere PowerCLI: урок 3
В этом уроке я постараюсь продемонстрировать объектно-ориентированность PowerShell. Все, с чем вы работаете в PowerShell - объекты, и у этих объектов есть свойства и методы (действия). Попробуем аналогию "объекты как велосипед".
Вот самый обычный велосипед.
Вот самый обычный велосипед.
Ярлыки:
уроки PowerCLI,
PowerShell,
vSphere
понедельник, 24 мая 2010 г.
MCTS: Hyper-V - настоящая причина
Коллеги, меня многие спрашивали почему и зачем я сертифицировался по Hyper-V, и я решил признаться.
Настоящая причина вот:
Настоящая причина вот:
Ярлыки:
Hyper-V
пятница, 21 мая 2010 г.
VMware User Group Нижний Новгород 2010-1
Коллеги, рад сообщить, что мы идем в регионы :)
Первая региональная встреча VMware User Group пройдет в Нижнем Новгороде 25 июня.
Регистрируемся здесь:
Регистрация закрыта.
Жду ваших ответов и комментариев:
- кого вы хотели бы увидеть в докладчиках?
- доклады на какие темы вы хотели бы услышать?
- хотели бы вы выступить на этой встрече?
Участие бесплатное.
Первая региональная встреча VMware User Group пройдет в Нижнем Новгороде 25 июня.
Регистрируемся здесь:
Регистрация закрыта.
Жду ваших ответов и комментариев:
- кого вы хотели бы увидеть в докладчиках?
- доклады на какие темы вы хотели бы услышать?
- хотели бы вы выступить на этой встрече?
Участие бесплатное.
Ярлыки:
VMUG
понедельник, 17 мая 2010 г.
vSphere PowerCLI: урок 2
Как и обещалось, в рамках уроков по PowerCLI будут так же рассказаны основы PowerShell, 2-в-1.
Для начала давайте подробнее посмотрим на механизм, известный в PowerShell как конвейер (pipe, pipeline).
Большинство командлетов (команд) предоставляют некий вывод при своей работе. Например, когда мы запустили Get-VM, был выведен список ВМ, включающий дополнительную информацию. При помощи конвейера мы можем подхватить этот вывод и обработать следующим командлетом, для чего нужно поставить символ | и написать следующую команду. Можно использовать командлет Where-Object, чтобы отфильтровать информацию на основе свойств, предоставленных предыдущим командлетом.
Для начала давайте подробнее посмотрим на механизм, известный в PowerShell как конвейер (pipe, pipeline).
Большинство командлетов (команд) предоставляют некий вывод при своей работе. Например, когда мы запустили Get-VM, был выведен список ВМ, включающий дополнительную информацию. При помощи конвейера мы можем подхватить этот вывод и обработать следующим командлетом, для чего нужно поставить символ | и написать следующую команду. Можно использовать командлет Where-Object, чтобы отфильтровать информацию на основе свойств, предоставленных предыдущим командлетом.
Ярлыки:
уроки PowerCLI,
PowerShell,
vSphere
суббота, 15 мая 2010 г.
Как размещать vCenter и Update Manager
VMware опубликовала рекомендации по размещению vCenter Server и Update Manager для инфраструктур разного размера.
Модель размещения | Размер инфраструктуры |
vCenter Server и vCenter Update Manager установлены на одном хосте, базы данных располагаются на том же хосте. | Эта модель, иногда называемая "все в одном", подходит для относительно небольших инфраструктур (до 20 хостов или 200 ВМ). |
vCenter Server и vCenter Update Manager установлены на одном хосте, базы данных располагаются на двух различных хостах. | Эта модель рекомендуется для инфраструктур среднего размера, с более чем 30 хостами или 300 ВМ. |
vCenter Server и vCenter Update Manager установлены на отдельных хостах, вместе с базами данных. | Эта модель рекомендуется для больших инфраструктур, с более чем 100 хостами или 1000 ВМ. |
Ярлыки:
Update Manager,
vCenter
пятница, 14 мая 2010 г.
vSphere PowerCLI: урок 1
Уважаемые читатели, рад сообщить, что я открываю в блоге новую серию: учебник по PowerCLI, который на 50% будет учебником по PowerShell. Т.е. вам не потребуются глубокие знания PowerShell для его изучения, все будет объяснено в процессе.
Основой учебника послужит серия уроков по PowerCLI от Ricky El-Qasem (Veeam Software), но я постараюсь делать не только перевод, а также и дополнять материал.
Итак, приступим.
Основой учебника послужит серия уроков по PowerCLI от Ricky El-Qasem (Veeam Software), но я постараюсь делать не только перевод, а также и дополнять материал.
Итак, приступим.
Ярлыки:
уроки PowerCLI,
PowerShell,
vSphere
PowerShell скрипт для автоматического обновления хостов
VMware не так давно порадовала любителей скриптов тем, что Update Manager теперь тоже поддерживает PowerShell.
Теперь можно полностью автоматизировать процесс установки патчей на хосты.
Правда у простых решений есть и ограничения. В данном случае это ограничение называется DRS в "Fully Automated" режиме.
Теперь можно полностью автоматизировать процесс установки патчей на хосты.
$Baseline = Get-Baseline -TargetType host Get-VMhost | ForEach-Object { Set-VMhost -vmhost $_ -state maintenance Remediate-Inventory -Entity $_ -Baseline $Baseline -Confirm:$False Set-VMhost -vmhost $_ -state connected }
Правда у простых решений есть и ограничения. В данном случае это ограничение называется DRS в "Fully Automated" режиме.
Ярлыки:
PowerShell,
Update Manager,
vSphere
PowerShell скрипт для контроля снапшотов
Luc Dekens, гуру vSphere PowerCLI поделился отличным скриптом для контроля снапшотов.
Скрипт может запускаться по расписанию и отсылать отчет администратору по e-mail для снапшотов старше определенного возраста. В данном случае 7 дней.
Скрипт может запускаться по расписанию и отсылать отчет администратору по e-mail для снапшотов старше определенного возраста. В данном случае 7 дней.
Ярлыки:
PowerShell,
vSphere
среда, 12 мая 2010 г.
Выключение TPS вредит производительности?
Duncan Epping указал на один интересный факт, связанный с особенностями работы Transparent Page Sharing (TPS).
Все дело в том, что TPS на NUMA системах работает только в пределах NUMA узла. Из чего следует простой вывод: страницы памяти не могут быть расшарены между NUMA узлами. Frank Denneman написал целую статью о том, как работает ESX на NUMA системах и правильном сайзинге ВМ для NUMA. Так вот, если страницы памяти выделяются удаленно, на другом узле, то для них действует "штраф" (кстати, “esxtop” в метрике N%L показывает процент удаленных страниц). Доступ к этим страницам осуществляется через шину интерконнекта, что, разумеется, медленнее, чем к так называемой локальной памяти.
Возникает вопрос - так какая же связь между NUMA, TPS и производительностью? Задумайтесь над этим. TPS уменьшает количество необходимых физических страниц памяти. Т.е. при выключении TPS возрастают шансы, что при выделении очередной страницы памяти придется выйти за пределы NUMA узла и выделить удаленную страницу. Что, как уже было сказано, отрицательно скажется на производительности. Забавно, как выключение технологии, повсеместно ассоциируемой с повышенной нагрузкой на CPU, приводит к росту задержек при обращении к памяти.
P.S. представителями NUMA архитектуры являются Intel Nehalem и все AMD Opteron .
Все дело в том, что TPS на NUMA системах работает только в пределах NUMA узла. Из чего следует простой вывод: страницы памяти не могут быть расшарены между NUMA узлами. Frank Denneman написал целую статью о том, как работает ESX на NUMA системах и правильном сайзинге ВМ для NUMA. Так вот, если страницы памяти выделяются удаленно, на другом узле, то для них действует "штраф" (кстати, “esxtop” в метрике N%L показывает процент удаленных страниц). Доступ к этим страницам осуществляется через шину интерконнекта, что, разумеется, медленнее, чем к так называемой локальной памяти.
Возникает вопрос - так какая же связь между NUMA, TPS и производительностью? Задумайтесь над этим. TPS уменьшает количество необходимых физических страниц памяти. Т.е. при выключении TPS возрастают шансы, что при выделении очередной страницы памяти придется выйти за пределы NUMA узла и выделить удаленную страницу. Что, как уже было сказано, отрицательно скажется на производительности. Забавно, как выключение технологии, повсеместно ассоциируемой с повышенной нагрузкой на CPU, приводит к росту задержек при обращении к памяти.
P.S. представителями NUMA архитектуры являются Intel Nehalem и все AMD Opteron .
вторник, 4 мая 2010 г.
Red Hat Enterprise Virtualization: Pentium II Inside!
Eric Gray по традиции бьет не в бровь, а в глаз.
В гомогенном кластере vSphere все возможности CPU полностью открыты гостевым ОС, за исключением только Intel-VT. Т.е. все самые модные инструкции SSE вам доступны. Также у VMware существует уникальная на сегодня технология EVC - выравнивание доступных инструкций в кластере с различными поколениями процессоров по самому старшему для обеспечения безболезненного перехода на новое железо.
VMware ESX 4
Что мы увидим, если запустим CPU-Z в ВМ под vSphere на сервере с Intel Nehalem E5540?
В гомогенном кластере vSphere все возможности CPU полностью открыты гостевым ОС, за исключением только Intel-VT. Т.е. все самые модные инструкции SSE вам доступны. Также у VMware существует уникальная на сегодня технология EVC - выравнивание доступных инструкций в кластере с различными поколениями процессоров по самому старшему для обеспечения безболезненного перехода на новое железо.
VMware ESX 4
Что мы увидим, если запустим CPU-Z в ВМ под vSphere на сервере с Intel Nehalem E5540?
HA Deepdive: Isolation
Говоря об HA и переключениях, инициированных HA, необходимо помнить о такой настройке как "isolation response" (ответ на изоляцию). Ответ на изоляцию - это действие, которые предпринимает HA при обнаружении изоляции, недоступности heartbeat сети. На сегодня существует три возможных варианта: "power off" (жесткое выключение ВМ), "leave powered on" (оставить включенными) и "shut down" (мягкое выключение).
До версии ESX 3.5 U2 / vCenter 2.5U2 ответ на изоляцию по умолчанию при создании нового кластера был "power off". В ESX 3.5 U3 / vCenter 2.5 U3 ответ был изменен на “leave powered on”, а в ESX 4.0 / vCenter 4.0 стал "shut down". Обязательно помните об этом при настройке новой среды, возможно, будет необходимо изменить ответ по умолчанию на какой-то конкретный для нужд заказчика.
До версии ESX 3.5 U2 / vCenter 2.5U2 ответ на изоляцию по умолчанию при создании нового кластера был "power off". В ESX 3.5 U3 / vCenter 2.5 U3 ответ был изменен на “leave powered on”, а в ESX 4.0 / vCenter 4.0 стал "shut down". Обязательно помните об этом при настройке новой среды, возможно, будет необходимо изменить ответ по умолчанию на какой-то конкретный для нужд заказчика.
Подписаться на:
Сообщения (Atom)