У тех, кто лишь не так давно стал прицениваться к виртуализации на платформе VMware Virtual Infrastructure, одним из первых встает вопросец – какую систему сохранения применять, и какие полномочия ей станут доступны.

VMware ESX Server поддерживает 4 вида систем сохранения:

Local Storage – довольно-таки локальные SCSI либо SATA диски сервера или же DAS (Direct Attached Storage). Оказалось, что на данных приспособлениях делаются тома, отформатированные в кластерной по-своему файловой системе VMFS (Virtual Machine File System). IDE-диски доступны лишь для установки самого ESX Server, при всем при этом виртуальные машинки на их беречь невозможно и невозможно сознательно творить VMFS-тома. iSCSI Storage – приспособления, подключаемые по интерфейсу iSCSI через попросту программный или же аппаратный организатор. Ну что ж для костюме. А теперь чтобы принимать на вооружение вправду программное iSCSI-хранилище на базе Windows 2003 Server, совершенно прочтите вот данную заметку. Fibre Channel – оптическое либо полностью медное включение к скоростной системе сохранения через SAN (Storage Area Network) средством HBA-адаптера. Естественно, на закономерных томах LUN помимо прочего делаются VMFS-тома для сохранения виртуальных автомашин. NAS-хранилище (Network Attached Storage). Стало быть поддерживается лишь попросту файловая система NFS. В сущности поскольку данная по-своему файловая система теснее крайне имеет интегрированные функции, в том числе многочисленный доступ хостов и распределенное блокирование доступа к файлам, VMFS тома на NFS-хранилище не делаются.

На рисунке ниже приведена сопоставимость разных функций VMware ESX Server с типами систем сохранения.

А по гиперссылке ниже приведено сопоставление быстродействия протоколов Fibre Channel, iSCSI и NAS/NFS для VMware ESX Server:

Comparison of Storage Protocol Performance

Здесь читаем о лимитированиях для систем сбережения в ESX Server:

Ограничения и наибольшие опции дисковых массивов и систем сохранения в VMware ESX Server

Теперь понаблюдаем на плюсы и недочеты любого из типов систем сохранения:

Fibre Channel

Плюсы: гарантированная полоса пропускания, высочайшая производительность, поддержка всех вероятностей VMware (включая кластер MSCS в виртуальных машинках).

Минусы: большая цена систем сохранения и фабрики SAN.

Аппаратный iSCSI

Плюсы: что же невозмутимо касается невысокая цена, превосходная производительность, вероятность загрузки из iSCSI SAN.

Минусы: нет гарантированной полосы пропускания, умышленно наличествуют все дефекты, очень-очень свойственные IP-сетям.

Программный iSCSI

Плюсы: абсолютно невысокая цена (можнож воплотить на Linux либо Windows сервере), при всем этом мы получаем полнофункциональную вправду совместную систему сохранения с функциями HA и DRS.

Минусы: невысокая производительность, доборная перегрузка на процессоры хостов ESX и сервер-хранилище.

NFS-хранилище

Плюсы: невысокая цена, не потребуется слишком добавочного звена – томов VMFS, неплохая производительность.

Минусы: опять-таки IP-сеть, нет помощи MSCS, невозможно загружать ESX из SAN, перегрузка на процессор.

Local Storage

Плюсы: дешево (довольно-таки локальные диски самого ESX), не потребуется однозначно добавочных вложениям, неплохое быстродействие.

Минусы: не действует VMware HA, DRS+DPM, VMotion, VCB.

Основные лучшие практики для всех типов систем сбережения Презентуйте тома LUN для всех серверов ESX Server с одним и тем же LUN ID. И все же иначе ваши VMFS-тома имеют все шансы перевоплотиться в снапшоты и имеют все шансы оказаться более-менее неприступными. Правильно подбирайте объем блока для тома VMFS. Несомненно как данное устроить подробно описано тут. Придерживайтесь верховодила «1 LUN per 1 VMFS Volume» Используйте унифицированные верховодила именования VMFS-томов, сознательно творите, насколько возможно, LUN одного и того же объема. Следовательно наиболее подходящий объем LUN – от 250 Гб до 2 Тб. Не примите на вооружение «расширения» (Extents) для томов VMFS. Храните ISO-образы По-своему на дешевеньком хранилище, к примеру NFS, и монтируйте его в режиме Read-Only для ESX. Используйте RDM-диски с предосторожностью. И действительно больших превосходств в производительности они мешают. Так или иначе используйте их только после этого, как скоро потребуется их работоспособность (к примеру, для кластеров MSCS). Держите 30% тома VMFS вольным. Видите ли это сбавит риск потребности его расширения при существе снапшотов и других внезапных событий. Не располагайте наиболее 30 виртуальных автомашин на одном VMFS-томе. LUN лично имеет возможность начать претерпевать трудности с производительностью. По крайней мере воистину хорошие консультанты советуют от 5 до 15 виртуальных автомашин на LUN. VMkernel Core Dump сохраняете локально. Оказывается при выключении ESX от SAN вы не сумеете внимательно взять в толк в нежели дело. Делайте менее «снапшотов» виртуальных автомашин, а гораздо лучше совершенно не делайте. Тем не менее лучше примите на вооружение ПО для существа резервных копий. Для гостевой ОС виртуальной машинки ставьте параметр Disk TimeOutValue в значение 60 секунд чтобы охотно отдать время SCSI-устройствам и приспособлению выбора пути на приобретение стабильного состояния в период физических трудностей в составляющих сети сбережения. Собственно для данного в ОС Windows нужно в ключе реестра «HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Disk\TimeOutValue» выставить значение 60. Убедитесь, что протяженность очереди (Queue Size) в гостевой системе для драйверов BusLogic и LSI Logic подходит значению более 30. Практики для различных типов совместных систем сохранения виртуальных автомашин

Fibre Channel

Зонируйте фабрику SAN так, дабы любой HBA-адаптер ESX Server попадал более-менее в отдельную зону. И в самом деле при данном все хосты ESX обязаны созидать все LUN Более-менее с виртуальными машинками для очень корректной работы HA и VMotion. Убедитесь, что доступ к 1 LUN для массивов, сконфигурированных как «active-passive», санкционирован через просто-таки энергичный контроллер со всех хостов. Между прочим иначе сможет появиться действо Path Thrashing. Для хостов ESX Server настраивайте зонирование вида “hard zoning” (по номеру порта). Наоборот зонирование вида “soft zoning” (по номеру WWN) – не используйте. В опциях типов хостов для системы сохранения предписывайте верный вид хоста – «VMware» (ежели это той находится). Мало того если такового нет, примите на вооружение рекомендацию производителя. Устанавливайте политическому деятелю путей как Fixed для систем сбережения, контроллеры которых сконфигурированы как «active-active» и MRU (Most Recently Used) для систем сохранения с контроллерами «active-passive». Короче, не примите на вооружение политическому деятелю балансировки по маршрутам Round Robin, ибо она не поддерживается в производственной среде. При задачах с производительностью, вполне вероятно может стоит повысить глубину очереди HBA-адаптера. По правде говоря, для данного в файлике /etc/esx.conf подыщите строку, наподобие /device/002:02.0/options = “ql2xmaxqdepth=” для вашего HBA, и ласково добавьте опосля заключительного точно также значение Queue Depth. А кроме того по умолчанию хладнокровно установлено значение 32. Одним словом значение задается согласно с формулой:

Отмаскируйте LUN, не нужные серверам ESX. Судя по всему для данного в «Advanced Settings» для ESX Server задумчиво добавьте значение параметра Disk.MaskLUNs. К тому же при указании в целом точных LUN, они станут пропущены при сканировании. Например, распоряжение параметра “vmhba0:0:4,6-255″ разрешит исследовать LUN 0,1,2,3,5, пропустив LUN 4 и от 6 до 255 включительно. Не правда ли через точку с запятой можнож хладнокровно показать 2 HBA, к примеру vmhba1. Для серверов, имеющих напросто диагностические сегменты (diagnostic partitions), нужно будет тщательно располагать их вправду на локальных дисках, но в сети SAN, для способности получения дампов ядра при разрыве соединения с SAN. Как ни странно бездисковые серверы обязаны иметь 1 по-особенному единый воистину диагностический раздел и опции зонирования обязаны дозволять всем серверам ESX обрести доступ к нему.

iSCSI Storage

Используйте отдельные сетевые адаптеры для взаимодействия с приспособлением сбережения и для трафиика виртуальных автомашин. Резервируйте пути и коммутаторы в LAN, применяйте NIC Teaming и Failover Order. Используйте балансировку перегрузки (Load Balancing) и EtherChannel (в случае если поддерживается коммутатором). Порты хостов ESX Server и систем сохранения располагайте в некой сабсети. Используйте способ обнаружения Static Discovery лишь для Hardware-инициаторов. Допустим попросту программные организаторы спокойно не примут на вооружение способ Static Discovery. Помните, что включение к iSCSI инициируется из по-хорошему сервисной консоли. Удивительно, что не позабудьте сердито прибавить разрешение для порта 3260 Просто-напросто в сетевой экран. Используйте VLAN на уровне групп портов для локализации трафика. Не примите на вооружение Failback для NIC Teaming. Не примите на вооружение 1 порт VMkernel для VMotion и хранилища. Используйте гигабитные адаптеры и Jumbo Frames (Jumbo Frames не поддерживается в ESXi – лишь в ESX).

NAS/NFS Storage

Увеличьте количество вероятных подключаемых совокупных ресурсов NFS. То есть для данного в Advanced Settings для сервера ESX выставьте значение параметра NFS.MaxVolumes в значение 32 заместо 8. Монтируйте хранилища виртуальных автомашин NFS одним и тем же образом (hostname/FQDN/IP, export и datastore name). Рекомендуемые характеристики в Advanced Settings – NFS (взято у NetApp): NFS.HeartbeatFrequency = 12 NFS.HeartbeatTimeout = 5 NFS.HeartbeatMaxFailures = 10 Net.TcpIpHeapSizeRXQueue = 30



Possibly related:


 

    Январь 2018
    Пн Вт Ср Чт Пт Сб Вс
    « Ноя    
    1234567
    891011121314
    15161718192021
    22232425262728
    293031