Ранее я уже писал о том, как сделать дешевое разделяемое хранилище для vSphere на базе Linux. Но что если вы хотите избавиться от единой точки отказа и сделать разделяемое хранилище отказоустойчивым? Можно поднять второй узел с Linux и прикручивать различные пакеты для отказоустойчивости, как например drbd и heartbeat. А можно обратить внимание на коммерческую разработку компании StarWind, и получить решение Enterprise класса.
Кстати, в марте при помощи StarWind iSCSI SAN был поставлен рекорд в 1 000 000 (!) IOPS.
StarWind iSCSI имеет функцию отказоустойчивости, сетевой зеркальный диск, уже давно. Но в этой конфигурации все работает только с главным узлом, и если с ним что-то случится, то простой и переключение вручную неизбежны.
Чтобы такого не случалось, появилась функция HA - непрерывная синхронная репликация данных между узлами и поддержка multipathing.
Итак, вы скачали StarWind iSCSI и что теперь с ним делать? Я расскажу.
Показаны сообщения с ярлыком iscsi. Показать все сообщения
Показаны сообщения с ярлыком iscsi. Показать все сообщения
четверг, 5 августа 2010 г.
среда, 7 июля 2010 г.
StarWind 5.4 вышел в public release
Хорошая новость от компании StarWind - iSCSI SAN версии 5.4 теперь доступен широкой публике.
О производительности этого решения я писал буквально вчера. А также хочу напомнить, что если у вас есть звание vExpert, VCP или MCP - вам полагается бесплатная лицензия :)
О производительности этого решения я писал буквально вчера. А также хочу напомнить, что если у вас есть звание vExpert, VCP или MCP - вам полагается бесплатная лицензия :)
вторник, 6 июля 2010 г.
Производительность StarWind iSCSI 5.4 beta
В связи с открытием бета-тестирования новой версии StarWind iSCSI захотелось протестировать производительность в режиме HA с разными настройками кэша.
В качестве тестового стенда использовались блейды BL460c G6 (2 * Xeon 5550, 10 GB RAM. 2 * 300 GB SAS 10k) с Windows 2003 R2 32 bit, подключенные к коммутаторам Cisco 3020. По одному интерфейсу трафик отдавался наружу, второй служил для синхронизации, по гигабитному линку. Нагрузку генерировали виртуальные машины, расположенные в соседней блейд-корзине, при помощи IOMeter.
Все настройки по умолчанию, тонкая сетевая настройка машин с StarWind iSCSI не проводилась. Был создан HA диск размером 20 GB. Итак, результаты:
В качестве тестового стенда использовались блейды BL460c G6 (2 * Xeon 5550, 10 GB RAM. 2 * 300 GB SAS 10k) с Windows 2003 R2 32 bit, подключенные к коммутаторам Cisco 3020. По одному интерфейсу трафик отдавался наружу, второй служил для синхронизации, по гигабитному линку. Нагрузку генерировали виртуальные машины, расположенные в соседней блейд-корзине, при помощи IOMeter.
Все настройки по умолчанию, тонкая сетевая настройка машин с StarWind iSCSI не проводилась. Был создан HA диск размером 20 GB. Итак, результаты:
среда, 23 июня 2010 г.
StarWind 5.4 beta
StarWind открыла программу бета-тестирования последней версии своего iSCSI таргета, 5.4
Что нового:
Форма регистрации на бета-тестирование:
Что нового:
- Добавлено кеширование. Поддерживаются режимы кеширования Write-Through и Write-Back.
- Добавлен функционал автоматической синхронизации. Когда HA нода становится активной, то в случае включенной опции автосинхронизации она автоматически синхронизует данные дисков со второй НА нодой и приводится в онлайн.
- Убран лимит на максимальный раздел диска в 2ТБ.
- При установке в Windows Firewall автоматически добавляется разрешающее правило.
Форма регистрации на бета-тестирование:
среда, 9 июля 2008 г.
Легкий iSCSI для ESX
Обнаружил, что в iSCSI Enterprise Target (ietd) наконец пофиксили проблему с монопольным доступом к таргету. Коротко - если к таргету кто-то уже подключился, то его даже было не видно остальным, не говоря уже о совместном использовании. Зачем это нужно? Коротко: для кластеров.
Конкретно сейчас поставил ietd 0.4.16, работает совместный доступ как минимум с 3х хостов.
Дешевое решение для shared storage для, например, VMware ESX, если не хочется работать по nfs по какой-то причине. Опять же, для raw device mapping для виртуальной машины требуется в кластере ESX'ов.
На RHEL5 встало легко и беспроблемно, конфигурация заняла 1 минуту.
#make
#make install
# service iscsi-target restart
Конкретно сейчас поставил ietd 0.4.16, работает совместный доступ как минимум с 3х хостов.
Дешевое решение для shared storage для, например, VMware ESX, если не хочется работать по nfs по какой-то причине. Опять же, для raw device mapping для виртуальной машины требуется в кластере ESX'ов.
На RHEL5 встало легко и беспроблемно, конфигурация заняла 1 минуту.
#make
#make install
#cat /etc/ietd.conf
Target iqn.2001-04.com.example:storage.disk2.sys1.xyz
Lun 0 Path=/dev/sdb,Type=blockio
# service iscsi-target restart
Подписаться на:
Сообщения (Atom)