Дисковые полки
вертикальное масштабирование as it's finest
Рассмотренные ниже дисковые полки подходят только для линеек FAS, AFF и ASA
Прежде чем планировать докупить дисковую полку, убедитесь что вы не превышаете максимально количество дисковых полок или дисков. Для каждой системы это разные значения!
Для пользователей старых систем хранения данных (до 2016 г.в.) внимательно прочитайте часть про подключение новых дисковых полок к старым СХД
Какие дисковые полки доступны для расширения?
Существует два поколения дисковых полок:
Новые дисковые полки, IOM 12Gb SAS с коннекторами miniSAS HD
DS224C
DS212C
DS460C
Старые дисковые полки которые уже недоступны к заказу официально, но очень много где установлены, IOM 6Gb SAS коннекторы QSFP и это имеет значение при планировании расширения
DS2246
DS4246
Как подключаются дисковые полки к СХД?
Речь подет только о дисковых полках с SAS IOM интерфейсами. NVMe полки подключаются иначе и описаны дальше.
У NetApp для подключения полок всегда использовалась "петля", когда SAS IOM подключались последовательно друг другу, а контроллеры СХД к первой и последней полке в стеке
Да, именно stack-depth или просто stack (стек) - название последовательно подключенных полок. Таких стеков в рамках даже одной СХД может быть несколько, если позволяет количество SAS портов
Количество дисковых полок в одном стеке так же ограничено. И дело тут не в маркетинге или вредности производителя, а в банальной физике. Дело в том, чем больше у нас дисковых полок в одном стеке, тем больше итоговых "хопов" приходится совершить данным с интерфейса последнего IOM модуля. Более того, все операции в стеке обрабатываются всеми IOM модулями, что в конечном итоге приводит к ограничениям на количество одновременно подключенных полок. А мы еще даже не начали говорить об SSD, которые еще больше бьют по ограничениям из-за специфики производительности Flash и требований к CPU СХД
Таким образом, у нас получается картина когда у каждой системы в линейке FAS/AFF/ASA есть ограничение по количеству дисков, дисковых полок в стеке и стеков
При чем эти ограничения только на половину "технические" есть так же доля маркетинга, особенно в случае младших систем. Шито поделать 🤷♂️
Сами стеки есть в двух вариантах:
Multi-path
Классический мультипас, оба контроллера СХД видят оба IOMA/B и таким образом пути задублированы, потеря одного IOM модуля или целой половины никак не повлияет на производительность
Quad-path
Встречается редко и только в самых крупных проектах. Надежнее но не производительнее. Кроме того надежность заключается только в дополнительных точках отказа интерфейсов. Поэтому фактической необходимости в таком подключении зачастую просто нет
Новые дисковые полки
Всего три модели
DS212C
DS224C
DS460C
Названия расшифровуются достаточно просто, например возьмем полку DS 2 24 C
:
DS
- disk shelf2
- количество юнитов24
- количество дисков в полкеС
- скорость SAS интерфейса IOM модуля
С
в шестднатцатиричной системе счисления означает 12, именно такая скорость интерфейса - 12Gb SAS
Что такое IOM и как он выглядит?
Input - Output module модуль ввода-вывода. И как вы уже поняли из названия используется он исключительно для обмена информацией с другими IOM и контроллерами СХД
В каждой дисковой полке установлено два таких модуля A и В
DS212C
DS224C
DS460C
Сравнительня таблица
DS212C | DS224C | DS460C | |
Высота | 2U | 2U | 4U |
Кло-во дисков макс | 12 | 24 | 60 |
Диски 2.5" | нет | SAS 10k: 900GB, 1.2, 1.8TB NSE: 1.8TB SAS, 3.8TB SSD SSD: 960Gb, 3.8, 7.6, 15.3TB | нет |
Диски 3.5" | NL-SAS/SATA: 4, 8, 10, 16TB NSE: 10TB SSD: 960GB, 3.8TB | нет | NL-SAS/SATA: 4, 8, 10, 16TB NSE: 10TB SSD: 960GB, 3.8TB |
Макс. SSD | 12 | 24 | 10 |
Какие платформы поддерживает* | FAS | FAS, AFF, ASA | FAS |
Какие диски со старых DS поддерживаются | DS4243, DS4246 | DS2246 | DS4243, DS4246 |
Питание | C13-14 | C13-14 | C19-20 |
*Полки DS212C и DS460C можно подключить только к гибридным системам FAS Полку DS224C можно подключать ко всем системам
NVMe дисковые полки
Особняком стоят дисковые полки поддерживающие NVMe SSD диски
По сути у них свой собственный способ подключения, работы и списиок поддерживаемых систем. А по технологичности далеко превосходит даже некоторые СХД! Шутка ли, обеспечить доступность к 24 NVMe дискам с задержкой в наносекунду!
На сегодняшний день есть такие модели NVMe дисковых полок
NS224
Как выглядит NS224?
Какие системы поддерживают NS224?
AFF A400
AFF A800
AFF A250
AFF A700
Какие диски поддерживаются
Standard (SED*) 1.9TB, 3.8TB, 7.6TB, 15.3TB
NSE** 3.8TB
Non-SED*** 1.9TB, 3.8TB
*SED - self-encrypted drives, диски со встроенным модулем шифрования, не поддерживает FIPS140-2, можно миксовать с Non-SED, стандартная опция при заказе **NSE - NetApp storage encryption, диски со встроенным модулем шифрования, поддерживает FIPS140-2, нельзя миксовать с Non-SED и SED Non-SED опция для России и Китая
Еще более простым языком
Есть просто NVMe SED SSD диски, которые поддерживают full disc encryption, но не поддерживают стандарт безопастности FIPS 140-2
Есть NVMe NSE SED SSD, которые поддерживают как full disc encryption так и стандарт FIPS 140-2
Больше читайте в разделе
ШифрованиеКак заказывать диски?
Паками
Как подключаются NS224 к СХД?
Достаточно интересный вопрос. Хотя, ответ банальный - кабелями 🙃
Что же тут интересного. Если помните в начале статьи я писал что чем больше полок подключены в один стек, тем больше требования ко всем элементам в этой цепи. И именно по этому есть ограничение по количеству дисков, дисковых полок и стеков в которые эти дисковые полки могут собираться для одной СХД
Так вот, для NVMe SSD все еще сложнее. Производительность одной дисковой полки NS224 - 400Gb/sec, по 200Gb на каждый модуль! Напоминаю, что речь идет о наносекундной задержке для приложений!
Таким образом NetApp подумал и решил уйти от подхода "стаков", и теперь невозможно объеденить несколько NS224 последовательно. Что вполне логично, учитывая требования к задержкам и производительности.
Как же тепрь подключаться?
Вариант первый, Direct Attached через 100GbE карточки
С помощью 100GbE QSFP+, которые уже установлены на NS224, прямое подключение по RDMA over RoCE
Поддерживается так же 40Gbe
QSFP28 для 100GbE
QSFP для 40GbE
При таком варианте:
Необходимо установить на СХД (не все модели в базе имеют 40/100GbE порты) нужную PCIe карту (по одной на каждый контроллер, потому что на полке 2 IOM модуля)
Таким образом мы подключим только одну полку
Для подключения двух полок, необходимо 4 карточки (по две на контроллер)
Таким
Вариант второй, Switched через 100GbE switch
Начиная с версии прошивки ONTAP 9.8, дисковые NVMe полки можно подключать через так называемые storege switch.
Официально (на текущий момент) поддерживается только Cisco Nexus 3232C
Но, по сути ,это обычный 100GbE свитч без каких либо излишеств и любой свитч, даже уже существующий в инфраструктуре должен подойти
Если появятся нюансы - я сразу же отображу их в этой статье
Такая топология позволяет подключить максимальное количество дисковых NVMe полок не занимаю слоты расширения
Какие системы поддерживают switched подключение?
A320
A400
A700
A800
Last updated