Подсистемы хранения данных

         

Предложенное решение


«Кирпичик» системы хранения информации IBM CIB получил форму куба со стороной 15 см. В нем расположились 12 жестких дисков объемом 100 Гбайт, которые управляются трехканальным дисковым контроллером. Вычислительные мощности системы базируются на процессорах Intel Pentium (точную модель разработчик не называет), сетевые – на восьмипортовом Ethernet-коммутаторе. Последний подключается к емкостным соединителям, располагающимся на гранях куба и являющимся сетевыми интерфейсами. Через них осуществляется передача данных со скоростью до 10 Гбайт/с, при этом не нужно ни кабелей, ни патч-кордов. Таким образом, суммарная пропускная способность одного «кирпичика» составляет 60 Гбайт/с. Питаются «кирпичики» от источника постоянного тока с напряжением 48 В, которое подается через соединитель, совмещенный с сетевым разъемом. Охлаждение «кирпичей» централизированное – в каждом из них имеется вертикальный патрубок, стыкуемый с патрубком стоящего над ним куба. Патрубки замыкаются в контур системы водяного охлаждения, от него внутрь «кирпичиков» к наиболее горячим элементам подводятся тепловые трубки, хорошо известные по ноутбукам.

Продемонстрированный на CeBIT ‘2004 прототип состоял из 27 модулей-кирпичиков, каждый из которых имеет емкость около 1,2 Тбайт. Из них на стенде компании IBM была смонтирована готовая система, вмещающая около 26 Тбайт информации, чего, кстати, достаточно для размещения всех текстов Библиотеки конгресса США – самого большого хранилища книг в мире. Сейчас в лабораториях IBM тестируется система размером 3 м3, емкость накопителей составляет 1,2 Пбайт. Поражает также «выходная» скорость продемонстрированной на CeBIT ’2004 системы. Если допустить, что каждый «кирпич» оснащен внешним портом Gigabit Ethernet, то только одна его грань способна обеспечить пропускную способность порядка 10 Гбит/с.

Что касается надежности системы, как и в случае с системами хранения информации на основе RAID-массивов, данные в середине IceCube дублируются, а для возможности повторной репликации при выходе из строя какого-либо из элементов системы, она никогда полностью не заполняется данными. (Отсюда и заниженный объем готовой системы по сравнению с реальным – 1,2 Тбайт по 27 не равно 26 Тбайт.) При этом репликация данных производится не в середине «кирпичиков», а на дисках соседних модулей.
То есть дублируются не дисковые накопители, а содержимое целых «кирпичиков». Это гарантирует, что даже при полном отказе одного из элементов конструкции, информация будет сохранена на одном из элементов, а значит, степень надежности такого решения значительно выше, чем у существующих систем. При этом информация сохраняется автоматически и нецентрализованно, то есть не требует использования выделенной логики, а потому не зависит от ее работоспособности. Здесь сети SAN и NAS также проигрывают, поскольку их работа конфигурируется централизованно — центральным сервером сети.

Что же произойдет при выходе из строя одного из «кирпичиков» такой системы? Понятно, что если «кирпич» находится на верхнем стеллаже куба, его можно просто отключить и заменить новым. А если расположение вышедшего из строя «кирпичика» внутреннее и без выключения и перезапуска всей системы не обойтись, то согласно теории протекания, проблема приобретает характер третьей задачи – ячеечной перколяции. В итоге из-за того, что каждый «кирпичик» имеет сетевой концентратор с разъемами во всех шести плоскостях, целостность системы не нарушится и связь между элементами поврежденного кластера куба разорвана не будет. Ведь согласно теории перколяции, порог протекания для кубической решетки составляет 0,21 и вряд ли будет достигнут мгновенно. Впрочем, даже в этом случае (выход из строя 80% «кирпичиков») целостность данных и функциональность системы окажется нормальной! Снизится лишь скорость обмена данными с внешним миром.

Если же откажет не весь «кирпич» целиком, а только его начинка, скажем, один из дисков или один из шести сетевых интерфейсов, задача примет характер задачи узлов или связей, соответственно. И снижение степени надежности всей системы окажется еще менее заметным.

Напомним, что на практике надежность такой системы хранения будет повышаться одновременно с ее объемом. (Тогда как в классических системах все происходит с точностью до наоборот.) Ведь при рассмотрении теории перколяции мы отталкивались от условий, что решетка имеет бесконечные размеры.


Следовательно, чем больше «кирпичиков» составляет систему, тем выше ее надежность. Кроме того, уже при переходе числа «кирпичиков» через сотню, в конструктиве системы могут применяться обычные жесткие диски с IDE-интерфейсом. В этом случае, учитывая их время наработки на отказ, только через пять лет с допустимой степенью вероятности не более чем 5% «кирпичиков» выйдет из строя, следовательно, связность между элементами конструкции гарантировано сохранится. При этом экономия средств при создании такой системы достигнет весьма ощутимых значений, ведь если взять аналогичную по параметрам систему производства ЕМС или Hitachi Data Systems на базе привычных SCSI-дисков, то только ее себестоимость превысит цену аналогичной по объему IBM IceCube как минимум в пять раз.

Но, как известно, в каждой бочке меда найдется своя ложка дегтя. В случае с IceCube это сравнительно невысокое быстродействие таких систем, а следовательно, и невысокая скорость работы установленных в ней накопителей. С другой стороны, у IBM есть планы по встраиванию в серийные образцы «кирпичиков» RAID-контроллеров уровня 1. В этом случае скорость системы существенно увеличится, а ее надежность все равно останется более высокой, чем у аналогов на базе зеркалирующих RAID-массивов. К тому же с ростом производительности Serial ATA-дисков и поголовной реализации в них логики NCQ, скорость IBM IceCube может не только достичь скорости работы конкурентных разработок, но и превзойти их.


Содержание раздела