1 (30.11.2014 20:57:17 отредактировано gberc)

Добрый вечер, товарищи. Помогите, кто сталкивался с похожим.
Встала задача перейти с ESXi на KVM и централизованное хранилище. Схема следующая: 2 гипервизора на KVM (CentOS 6.6) + хранилище (CentOS 6.6). Каждый гипервизор будет соединен на прямую с отдельной сетевой картой хранилища (т.е. без коммутатора), все сетевые гигабитные. На хранилище стоит аппаратный RAID10 под образы виртуальных машин.
Отсюда вопросы:

- какой протокол использовать NFS или iSCSI? что будет более производительным?
- стоит ли, и вообще, возможно ли использовать jumbo frame в моем случае?

P.S. если это важно, то гипервизорам будут отдаваться файлы образов, а не разделы.

2

если не заморачиваться, то я бы поставил на сервер с дисками ovirt-engine, на хосты vdsm. рулить всем из engine, и оттуда же шарить nfs для хранения vm. если сетевых несколько, то собрать их в bond-ы, еще лучше - отдельный бонд для виртуалок, и отдельный для стореджа

3 (01.12.2014 09:09:41 отредактировано gberc)

dyasny, спасибо за совет.
Я пробовал ovirt, но заткнулся на пробросе USB-принтера в win-гостя. и решил пока отказаться от ovirt. Т.е. просто не осилил...

На всех серверах по 2 сетевых интерфейса. Хотел сделать так:
- на сторадже оба интерфейса подключить к гипервизорам.
- на гипервизорах один интерфейс подключить к стораджу, а второй отдать клиентам.

Вопросы остаются открытыми..

4

gberc пишет:

Я пробовал ovirt, но заткнулся на пробросе USB-принтера в win-гостя. и решил пока отказаться от ovirt. Т.е. просто не осилил...

потому что в наше время пора пользоваться сетевыми принтерами. локальный юсб принтер тоже можно расшарить в сеть, и опубликовать в AD. есть конечно и проброс юсб, но зачем эти сложности?

gberc пишет:

На всех серверах по 2 сетевых интерфейса. Хотел сделать так:
- на сторадже оба интерфейса подключить к гипервизорам.
- на гипервизорах один интерфейс подключить к стораджу, а второй отдать клиентам.

я бы взял нормальный свич, и настроил в нем несколько vlanов. Ну примерно так:
100: iscsi
101: ovirt-mgmt
102: vm data

на каждом хосте собираем все интерфейсы в bond mode 4 (тут как раз и понадобится нормальный свич), на свиче пробрасываем все виланы в транках

на хостах следующая структура:
eth0+eth1 -> bond0 -> bond0.{100..102}

на хостах над bond0.101 и 102 делается мост, над .100 не нужно, это только сторедж траффик.

на контроллере ставим nfs-utils, и настраиваем две шары - для дисков ВМ и для ISO. Tам же ставим ovirt-engine

из овирта уже добавляем два хоста и дватипа стореджа, строим три сети. все.

трафик будет бегать через бонды.


это решение для бедных конечно же, если по хорошему то надо отдельные сетевыхи для стореджа и желательно отдельные, парные свичи.