Показаны сообщения с ярлыком VMworld. Показать все сообщения
Показаны сообщения с ярлыком VMworld. Показать все сообщения

вторник, 18 октября 2016 г.

VMworld EU 2016

STO8165, John Nicholson (@Lost_Signal)
VSAN Networking Deepdive

* Используйте мультикаст флад только для выделенных под VSAN VLANов
* Если у вас несколько кластеров VSAN в одном VLAN - поменяйте им мультикаст адреса, чтобы каждый кластер имел свой уникальный. Или разнесите по разным VLAN
* Не делайте VSAN поверх L3 если не уверены зачем это делаете
* Для больших и нагруженных кластеров VSAN очень чувствителен к степени переподписки аплинков. В качестве средней температуры можно взять 4 к 1, но для каждого случая надо смотреть конкретнее
* Идеальный вариант коммутаторов для VSAN - со связями запад-восток. Осторожнее с Cisco FEX - там все через аплинк
* Jumbo frames не имеют большого значения для VSAN
* Локализация ввода-вывода (data locality) не имеет большого смысла для VSAN, ведь каждая запись должна все равно идти через сеть. /* Nutanix смотрит на это утверждение с удивлением.
* Начиная с 6.5 поддерживаются микрокластеры из двух узлов с прямым подключением между узлами (кросс-кабелем).
* Растянутый кластер требует VSAN Enterprise и поддерживается с сетями 10G 5ms RTT. 1 Гбит в целом поддерживается, но не рекомендуется.
* Для растянутого кластера требуется cluster witness. Он может быть виртуальной машиной или ESXi хостом (для него не требуется лицензия). Сетевое подключение - не менее 100 мегабит. /* Nutanix снова смотрит с удивлением, обходясь 2 мегабитами.
* Дедупликация идет фиксированными блоками 4 кб для All-Flash. Гибридный VSAN не поддерживает дедупликацию. /* Nutanix махнул рукой, ушел

INF8701, Brett Guarino
vSphere Core 4 Performance Troubleshooting and Root Cause Analysis, Part 2: Disk and Network

* VMXNET драйвер работает в ring 1, E1000 - ring 2
* Почти все сводится к esxtop
* Хотите при помощи esxtop анализировать сеть? Купите БОЛЬШОЙ монитор
* Ключевые показатели при анализе сети в vSphere
- используемые физические аплинки для каждого vmnic
- фактическая скорость на vmnic
- счетчик пакетов и средний размер пакета на vmnic
- отброшенные пакеты на vmnic
- фактическая скорость на физическом интерфейсе
- счетчик пакетов и средний размер пакета на физическом интерфейсе
- отброшенные пакеты на физическом интерфейсе
* Исследование дисковой системы - это куда больше веселья, чем сети :)
* Ключевые показатели - IOPS, задержки и фактическая скорость в мегабайтах в секунду
* Ситуации с DAVG/KAVG:
- низкий/низкий - идеально
- низкий/высокий - перегруженный хост
- высокий/низкий - перегруженная СХД
- высокий/высокий - проблема и там, и там. Но иногда слишком перегруженная СХД ведем к перегрузке дискового стека хоста.
** остаток доклада по дисковой системе фактически повторяет мою презентацию на VMUG 2014 в упрощенном виде. (http://blog.vadmin.ru/2014/06/vmug-2014.html)


VIRT8530, Rob Girard, Shawn Meyers
Deep Dive on pNUMA and vNUMA - Save Your SQL VMs from Certain DoomA!

* SQL не очень работает на AMD NUMA. Ставьте Intel. /* речь, разумеется, о широких SQL
* Неправильная конфигурация NUMA может вести к падению производительности до 40%
* По умолчанию vNUMA включается только при 9+ vCPU ВМ.
- Если у вас 4 или 6-ядерные процессоры и ВМ с большим количеством vCPU, чем ядер на процессоре - у вас будут проблемы с NUMA
- Можно исправить при помощи numa.min.vcpu для ВМ
* Лучший сайзинг ВМ - это много сокетов по 1 ядру. В этом случае автоматика отработает и ситуация будет близка к идеальной
- как только вы измените количество ядер на отличное от 1, конфигурация vNUMA зафиксируется
- vSphere определит топологию NUMA на первой загрузке. Это фиксируется в .vmx
- Используйте более одного ядра на сокет только для приложений с лицензированием по сокетам
- Если вы уверены в том, что делаете - сделайте сайзинг по границам узлов
* Идеальный сайзинг ВМ по vCPU - число, кратное одному узлу NUMA. Т.е. для 12-ядерного узла это 1, 2, 3, 4, 6, 12. На практике 3 vCPU ВМ работает на 6-ядерном процессоре лучше, чем 4vCPU.
* vSphere 6.5 позволяет сделать двойной финт - обмануть приложение по лицензированию, и при этом технически использовать автосайзинг NUMA
- numa.vcpu.followcorespersocket = 0 (по умолчанию)
- если установить в 1, то вернется старое поведение
* Расширенные настройки. !!! Опасно !!! Только если вы действительно понимаете что делаете
- numa.vcpu.maxPerVirtualNode = 8 (по умолчанию) - для расширения ВМ на дополнительные NUMA узлы
- numa.vcpu.preferHT = False (по умолчанию) - использовать потоки HT вместо дополнительных узлов NUMA. Для некоторых нагрузок важнее остаться в пределах одного узла.
- numa.vcpu.min = 9 (по умолчанию) - когда vNUMA начинает использоваться
- numa.autosize = False (по умолчанию) - пересчитывать топологию NUMA каждый раз при загрузке ВМ. Рекомендуется в True.
- numa.autosize.once = True (по умолчанию) - рассчитывать топологию NUMA при первой загрузке ВМ. Рекомендуется в False.
- numa.autosize.cookie = [автогенерируемое] - автоконфигурация vNUMA. 160001 = 16 сокетов, 1 ядро
- numa.autosize.vcpu.maxPerVirtualNode = [автогенерируемое] - сколько ядер на каждый узел NUMA при автосайзинге.
* Если в .vmx присутствуют numa.autosize.vcpu.maxPerVirtualNode или cpuid.coresPerSocket - автосайзинг не используется
* CPU HotAdd для виртуальной машины отключает vNUMA
* Memory HotAdd работает по разному
- HW ver 8-10 добавляет память в vNUMA node 0, что приводит к дисбалансу
- HW ver 11 балансирует память между vNUMA узлами
* Настройки vNUMA на уровне хоста в абсолютном большинстве случаев НЕ НАДО трогать.
* Перед тем как винить vNUMA проверьте все остальное.
* Не делайте 4-сокетную ВМ на 2-сокетном сервере. 

понедельник, 25 августа 2014 г.

VMworld 2014. EVO:RAIL

VMworld еще толком не начался, а новости уже огого! Анонсирована EVO:Rail - гиперконвергентная инфраструктура от VMware, состоящая из пакета ПО EVO:RAIL и 2U железки из 4х узлов. VMware не будет поставлять аппаратную часть, что дает четкий ответ НЕТ на ранее звучавший вопрос: VMware пойдет в железный бизнес? Аппаратную часть будут поставлять партнеры, и можно ожидать первые EVO:RAIL совместимые предложения уже на этой неделе.
В качестве основной СХД будет использоваться vSAN, а софт EVO:RAIL - это простая инсталляция (15 минут) всего (ESXi и vCenter) и простое администрирование.

 

Аппаратная часть состоит из 4 независимых узлов (серверов) в едином шасси, в каждом из которых по 2 процессора и 192ГБ память. Подсистема хранения гибридная (Flash и HDD) с окончательной емкостью 16ТБ. Софт включает в себя vSphere Enterprise Plus, а также vCenter Log Insight. Расширяется до 4 шасси в версии 1.0.

 

VMware EVO: RAIL - building blocks

 

VMware EVO Rail

Вычислительный блок

  • Dual socket – Intel Xeon E5 2620v2 CPUs, 6-core
  • Memory – up to192 GB
  • 1 x Expansion Slots PCI-E
  • Disk controller with pass through capabilities (Virtual SAN requirement)

Ресурсы хранения

  • 1 x 146 GB SAS 10K-RPM HDD or 32 GB SATADOM (ESXi boot)
  • 1 x SSD up to 400 GB (Virtual SAN requirement for read/write cache)
  • 3 x 1.2 TB SAS 10K-RPM HDD (Virtual SAN data store)

Внешние интерфейсы

  • 2 x Network – 10 GbE RJ45 or SFP+
  • 1 x Management RJ45 – 100/1000 NIC

Вероятно выглядеть будет как-то так…

VMware EVO:RAIL Hyper-converged appliance

Необходимо заметить, что коммутатор top-of-the-rack дожен быть 10Гбит с поддержкой VLAN.

Софт

EVO: RAIL - первая гиперконвергентная инфраструктура, полностью от VMware и включает в себя:

  • EVO: RAIL Deployment, Configuration, and Management
  • VMware vSphere® Enterprise Plus, including ESXi for compute
  • Virtual SAN for storage
  • vCenter Server™
  • vCenter Log Insight™

Простое конфигурирование – EVO: RAIL поддерживает 3 конфигурации.

Попрощайтесь с Flash, его больше нет - теперь только HTML 5

3 варианта конфигурации:

  • Just Go – все автоматически, включая IP адреса и имена хостов. Прекрасный вариант для “green field” инсталляций без участия пользователя. Тем не менее, будет необходимо сконфигурировать top-of-the-rack коммутатор и воткнуть кабели.
  • Customize Me – в этом вариант от пользователя требуется ввод имен хостов (vCenter and ESXi), сетевой информации (IP ranges, VLAN IDs, VSAN, vMotion, vCenter server, VM networks),  паролей (vCenter and ESXi), глобальной инфраструктуры (time zone, NTP server, DNS, AD, proxy, syslog logging or vCenter Log Insight)
  • Upload Configuration – в этом варианте вся конфигурация загружается, например, с USB флэшки. Файл конфигурации - просто JSON на основе XML.

EVO: RAIL софт затем инсталлирует гипервизоры и vCenter Server, конфигурирует кластер и активирует различные сервисы (VSAN, HA, vMotion…). 

EVO: RAIL initial configuration screen

Manual configuration – вводим префикс имен хостов, информацию о vCenter и домене:

EVO: RAIL Configuration

Конфигурация VM Networking

EVO: RAIL - VM networking configuration

Управление EVO: RAIL

Пакет EVO: RAIL позволяет не только установить и сконфигурировать инфраструктуру (ESXi and vSphere), но так же позовляет и управлять виртуальными машинами. Правда возможности эти довольно таки ограничены.

VMware EVO:RAIL - Overall system healt

Вот пример создания ВМ - через мастер.

EVO: RAIL - VM creation Wizard

После создания можно управлять виртуальной машиной через тот же интерфейс.

EVO: RAIL - VM configuration options

Страница управления лицензиями и языком интерфейса. Нужен всего один серийный номер на всю инфраструктуру! Отсюда же можно выгрузить логи.

EVO: RAIL - Licensing Options and Internationalization

В версии 1.0 возможно расширение до 4х узлов (16 хостов ESXi), но данное ограничение в будущем будет снято.

Отказоустойчивость!

Распределенный “RAID” EVO:RAIL на основе VSAN выдерживает отказ оборудования без потери данных или простоя. Любой узел уходи в даун - VSAN немедленно начинает ребилд ВМ, работавших на отказавшем узле.

VMware EVO:RAIL - Resiliency and zero downtime

Сетевые требования

Уже было упомнято, что top-of-the-rack коммутатор должен быть 10Гбит.

VMware рекомедует изоляцию всех видов трафика через использование VLAN. VSAN требует L2 multicast (IGMP Snooping + IGMP Querier). Так же необходимо включение IPV6.

VMware EVO:RAIL - Networking

Новые узлы обнаруживаются автоматически

Пример обнаружения ошибки в конфигурации:

The system nicely handles errors in configuration

Интеграция с Log Insight:

Syslog or Log Insight Integration with EVO:RAIL

Конфигурация 4х узлов и инсталляция vCenter занимают примерно 15 минут.

VMware EVO: RAIL Installation progress

И наконец!

VMware EVO:RAIL - Configuration result

Добавление новых узлов EVO:RAIL очень простое, система автоматически обнаруживает включенные узлы - и нужно только нажать на зеленую кнопку.

VMware EVO:RAIL - detecting another applicance is automatic

Добавить всего два пароля:

  • ESXi password
  • vCenter password

Вся сетевая информация берется из пула IP, созданного при конфигурировании первого узла.

VMware EVO:RAIL - adding another appliance

 

Проект MARVIN, ранее упоминавшийся на просторах интернет, теперь называется EVO:RAIL. Все начиналось в январе 2013, а уже в 4м квартале 2014 можно будет приобрести.

Оригинал: Vladan Seget

вторник, 4 сентября 2012 г.

Анонсы с VMworld 2012: vVol, vSAN, vFlash

На недавно прошедшей в Сан-Франциско конференции VMWorld были анонсированы интересные технологии в области работы с СХД, точнее с vStorage, которые VMware собирается представить в ближайшее время: Virtual Volumes (vVols), Virtual SAN (vSAN) и Virtual Flash (vFlash?). Итак, что это за названия и в каком направлении движется VMware?

Virtual Volumes или vVols

Принципы работы с SAN и NAS массивами были заложены десятки лет назад: взять кучу дисков, равномерно распределить данные между ними во избежание возможных проблем при выходе одного из дисков из строя, объединить их логические единицы и предоставить серверам. Сегодня принцип практически тот же: у вас есть LUN или «шара», куда сохраняются виртуальные диски.



Задайте себе вопрос: оптимальное ли это решение? Что если вы хотите реплицировать ВМ? Тогда вам нужно реплицировать весь LUN. Выхода из данной ситуации два: создать LUN достаточный чтобы положить туда нужное количество ВМ и реплицировать их все сразу, или создать под каждую ВМ один LUN и, таким образом, получить требуемую частоту репликации. Оптимального решения нет. Или всё таки есть? Идеально иметь одну точку для подключения всех ВМ, и уйти от идеи с LUN или разграничением доступа (share).

среда, 31 августа 2011 г.

vSMP Fault Tolerance

For a long time VMware Fault Tolerance was only supported on a single vCPU VM. Today we witnessed a change: During the BCO2874 session we got a first look on the prototype of the SMP enabled Fault Tolerance. Cool!

Что такое FT?

Как многие :) уже знают, Fault Tolerance (FT) создает теневую копию виртуальной машины на другом узле vSphere, такк что при смерти основного узла, управление полностью передается на теневую машину и она подхватывает все операции без простоя и перезагрузок.

Звучит очень интригующе, но в реальность есть много ограничений. Например FT могла обеспечить отказоустойчивость только однопроцессорных машин, многопроцессорные машины запустить было невозможно. До сегодняшнего дня.

VMworld 2011 update

Немного новостей в прямом эфире с VMworld 2011.

Steven Herrod рассказал куда мы двигаемся и что нового нас ждет.

Новый подход к работе пользователей

У пользователей больше нет "просто десктопа", взаимодействие становится все шире. Анонсировано следующее:

ThinApp factory & Horizon

ThinApp factory позволит использовать приложения, не таская за собой целый VDI десктоп. По мере того, как SaaS приложения становятся стандартом, их можно просто закинуть в "пузырь" ThinApp. Horizon - централизованное решение, дающее возможность пользователям подключаться напрямую к SaaS приложениям, используя доменную учетную запись.

Project Octopus

Используете DropBox? Наверное да. Разрешено ли использовать DropBox? Скорее всего нет, вопрос безопасности стоит достаточно остро. Но если индустрия не найдет варианта доставки сервиса, пользователи найдут свой путь, как например DropBox. Проект Octopus посвящен именно этому, но только как корпоративное решение. Безопасный доступ к вашим данным как в частном, так и публичном облаке.

Horizon Mobile

Проект, ранее известный как MVP (Mobile Virtualization Platform). Мы слышали о нем еще несколько лет назад, но он так и не был доведен до публичного релиза. До сегодняшнего дня. И наконец, официально объявляется о возможности запуска виртуальной машины на мобильном телефоне. По нажатию одной кнопки запускается виртуальный экземпляр корпоративного телефона. Да, это еще один шаг в сторону "bring your own device" и реализации безопасного доступа с недоверенных устройств.

AppBlast

AppBlast позволит вам, например, открыть для чтения Excel файл без того, чтобы устанавливать Excel на компьютер. AppBlast будет конвертировать данные на лету в чистый HTML.

Клиент iPad

Управляем средой vSphere c iPad'а :)

VMware Go и другие SMB фишки

VMware Go предназначена для малого бизнеса без выделенных системных администраторов (или без квалифицированных администраторов). Полностью web based, автоматически просканирует сеть и поможет сконвертировать текущие задачи и перенести их на ESXi. Вряд ли в ближайшее время будет позльзоваться популярностью в России, но посмотрим :)

VMware VSA - о ней уже говорили, виртуальный модуль для организации виртуального разделяемого хранилища на базе локальных дисков ESXi сервера. Многие крупные компании с большим количеством региональных офисов так же буду весьма заинтересованы в этом решении.

Для того же сегмента малого бизнеса анонсирована функция Host Based Replication (HBR) при использовании SRM5.

Новая сетевая фишка: VXLAN

Совершенно новая сетевая функциональность, над которой VMware работала несколько лет. Попросту говоря, это упаковка L2 сеть в L3.

Интересная тенеденция, персона (профиль пользователя) теперь оторван от местоположения (десктопа), так же как и номер мобильного телефона оторван от физического местоположения. И теперь мы больше не привязаны к конкретной точке входа в сеть!

среда, 11 мая 2011 г.

пятница, 4 сентября 2009 г.

Best of VMworld 2009

Объявлены победители конкурса «Best of VMworld 2009», победители были выбраны из более чем 175 участников на конференции компании VMware, которая проходит на этой неделе в Сан-Франциско.

Третий год подряд независимая команда экспертов (SearchServerVirtualization.com) оценивает продукты с точки зрения новаторства, стоимости, производительности, надежности и простоты использования.

Награды присуждаются в 8 номинациях:
1. Непрерывность бизнеса и защита данных.
2. Безопасность и виртуализация.
3. Управление виртуализацией.
4. Аппаратное обеспечение для виртуализации.
5. Виртуализация ПК.
6. Технологии облачных вычислений.
7. Новые технологии.
8. Лучшее представление.

Рассматриваются только продукты, которые уже доступны для приобретения, за исключением категории «Новые технологии».

Победители

Категория: Непрерывность бизнеса и защита данных
Победитель: Vizioncore Inc., vRanger Pro 4.0
Финалист: Veeam Software Inc., Veeam Backup & Replication
Финалист: PHD Virtual Technologies, esXpress n 3.6

Категория: Безопасность и виртуализация
Победитель: Hytrust, Hytrust Appliance
Финалист: Catbird Networks Inc., Catbird vCompliance

Категория: Управление виртуализацией
Победитель: Netuitive Inc., Netuitive SI for Virtual Data Centers
Финалист: Veeam Software, Veeam Management Suite
Финалист: Embotics Corp., V-Commander 3.0

Категория: Аппаратное обеспечение для виртуализации
Победитель: Cisco Systems Inc., Unified Computing System
Финалист: Xsigo Systems, VP780 I/O Director 2.0
Финалист: AFORE Solutions Inc., ASE3300

Категория: Виртуализация ПК
Победитель: AppSense, AppSense Environment Manager, 8.0
Финалист: Liquidware Labs, Stratusphere
Финалист: Virtual Computer Inc., NxTop

Категория: Технологии облачных вычислений
Победитель: Mellanox Technologies, Italio Cloud Appliance
Финалист: InContinuum Software, CloudController v 1.5
Финалист: Catbird Networks Inc., Catbird V-Security Cloud Edition

Категория: Новые технологии
Победитель: VirtenSys, Virtensys IOV switch VMX-500LSR

Категория: Лучшее представление
Победитель: Hytrust, Hytrust Appliance

Источник: Techtarget

Видеоролик: http://link.brightcove.com/services/player/bcpid1740037323