Вопросник для системы хранения данных. Выбор системы хранения данных. Собственная разработка системы хранения данных

Вопросник для системы хранения данных. Выбор системы хранения данных. Собственная разработка системы хранения данных

23.03.2022

В простейшем случае SAN состоит из СХД , коммутаторов и серверов, объединённых оптическими каналами связи. Помимо непосредственно дисковых СХД в SAN можно подключить дисковые библиотеки, ленточные библиотеки (стримеры), устройства для хранения данных на оптических дисках (CD/DVD и прочие) и др.

Пример высоконадёжной инфраструктуры, в которой серверы включены одновременно в локальную сеть (слева) и в сеть хранения данных (справа). Такая схема обеспечивает доступ к данным, находящимся на СХД, при выходе из строя любого процессорного модуля, коммутатора или пути доступа.

Использование SAN позволяет обеспечить:

  • централизованное управление ресурсами серверов и систем хранения данных ;
  • подключение новых дисковых массивов и серверов без остановки работы всей системы хранения;
  • использование ранее приобретенного оборудования совместно с новыми устройствами хранения данных;
  • оперативный и надежный доступ к накопителям данных, находящимся на большом расстоянии от серверов, *без значительных потерь производительности;
  • ускорение процесса резервного копирования и восстановления данных - BURA .

История

Развитие сетевых технологий привело к появлению двух сетевых решений для СХД – сетей хранения Storage Area Network (SAN) для обмена данными на уровне блоков, поддерживаемых клиентскими файловыми системами, и серверов для хранения данных на файловом уровне Network Attached Storage (NAS). Чтобы отличать традиционные СХД от сетевых был предложен еще один ретроним – Direct Attached Storage (DAS).

Появлявшиеся на рынке последовательно DAS, SAN и NAS отражают эволюционирующие цепочки связей между приложениями, использующими данные, и байтами на носителе, содержащим эти данные. Когда-то сами программы-приложения читали и писали блоки, затем появились драйверы как часть операционной системы. В современных DAS, SAN и NAS цепочка состоит из трех звеньев: первое звено – создание RAID-массивов, второе – обработка метаданных, позволяющих интерпретировать двоичные данные в виде файлов и записей, и третье – сервисы по предоставлению данных приложению. Они различаются по тому, где и как реализованы эти звенья. В случае с DAS СХД является «голой», она только лишь предоставляет возможность хранения и доступа к данным, а все остальное делается на стороне сервера, начиная с интерфейсов и драйвера. С появлением SAN обеспечение RAID переносится на сторону СХД, все остальное остается так же, как в случае с DAS. А NAS отличается тем, что в СХД переносятся к тому же и метаданные для обеспечения файлового доступа, здесь клиенту остается только лишь поддерживать сервисы данных.

Появление SAN стало возможным после того, как в 1988 году был разработан протокол Fibre Channel (FC) и в 1994 утвержден ANSI как стандарт. Термин Storage Area Network датируется 1999 годом. Со временем FC уступил место Ethernet, и получили распространение сети IP-SAN с подключением по iSCSI.

Идея сетевого сервера хранения NAS принадлежит Брайану Рэнделлу из Университета Ньюкэстла и реализована в машинах на UNIX-сервере в 1983 году. Эта идея оказалась настолько удачной, что была подхвачена множеством компаний, в том числе Novell, IBM , и Sun, но в конечном итоге сменили лидеров NetApp и EMC.

В 1995 Гарт Гибсон развил принципы NAS и создал объектные СХД (Object Storage, OBS). Он начал с того, что разделил все дисковые операции на две группы, в одну вошли выполняемые более часто, такие как чтение и запись, в другую более редкие, такие как операции с именами. Затем он предложил в дополнение к блокам и файлам еще один контейнер, он назвал его объектом.

OBS отличается новым типом интерфейса, его называют объектным. Клиентские сервисы данных взаимодействуют с метаданными по объектному API (Object API). В OBS хранятся не только данные, но еще и поддерживается RAID, хранятся метаданные, относящиеся к объектам и поддерживается объектный интерфейс. DAS, и SAN, и NAS, и OBS сосуществуют во времени, но каждый из типов доступа в большей мере соответствует определенному типу данных и приложений.

Архитектура SAN

Топология сети

SAN является высокоскоростной сетью передачи данных, предназначенной для подключения серверов к устройствам хранения данных. Разнообразные топологии SAN (точка-точка, петля с арбитражной логикой (Arbitrated Loop) и коммутация) замещают традиционные шинные соединения «сервер - устройства хранения» и предоставляют по сравнению с ними большую гибкость, производительность и надежность. В основе концепции SAN лежит возможность соединения любого из серверов с любым устройством хранения данных, работающим по протоколу Fibre Channel . Принцип взаимодействия узлов в SAN c топологиями точка-точка или коммутацией показан на рисунках. В SAN с топологией Arbitrated Loop передача данных осуществляется последовательно от узла к узлу. Для того, чтобы начать передачу данных передающее устройство инициализирует арбитраж за право использования среды передачи данных (отсюда и название топологии – Arbitrated Loop).

Транспортную основу SAN составляет протокол Fibre Channel, использующий как медные, так и волоконно-оптические соединения устройств.

Компоненты SAN

Компоненты SAN подразделяются на следующие:

  • Ресурсы хранения данных;
  • Устройства, реализующие инфраструктуру SAN;

Host Bus Adaptors

Ресурсы хранения данных

К ресурсам хранения данных относятся дисковые массивы , ленточные накопители и библиотеки с интерфейсом Fibre Channel . Многие свои возможности ресурсы хранения реализуют только будучи включенными в SAN. Так дисковые массивы высшего класса могут осуществлять репликацию данных между масcивами по сетям Fibre Channel, а ленточные библиотеки могут реализовывать перенос данных на ленту прямо с дисковых массивов с интерфейсом Fibre Channel, минуя сеть и серверы (Serverless backup). Наибольшую популярность на рынке приобрели дисковые массивы компаний EMC , Hitachi , IBM , Compaq (семейство Storage Works , доставшееся Compaq от Digital), а из производителей ленточных библиотек следует упомянуть StorageTek , Quantum/ATL , IBM .

Устройства, реализующие инфраструктуру SAN

Устройствами, реализующими инфраструктуру SAN, являются коммутаторы Fibre Channel (Fibre Channel switches , FC switches),концентраторы (Fibre Channel Hub) и маршрутизаторы (Fibre Channel-SCSI routers).Концентраторы используются для объединения устройств, работающих в режиме Fibre Channel Arbitrated Loop (FC_AL). Применение концентраторов позволяет подключать и отключать устройства в петле без остановки системы, поскольку концентратор автоматически замыкает петлю в случае отключения устройства и автоматически размыкает петлю, если к нему было подключено новое устройство. Каждое изменение петли сопровождается сложным процессом её инициализации . Процесс инициализации многоступенчатый, и до его окончания обмен данными в петле невозможен.

Все современные SAN построены на коммутаторах, позволяющих реализовать полноценное сетевое соединение. Коммутаторы могут не только соединять устройства Fibre Channel , но и разграничивать доступ между устройствами, для чего на коммутаторах создаются так называемые зоны. Устройства, помещенные в разные зоны, не могут обмениваться информацией друг с другом. Количество портов в SAN можно увеличивать, соединяя коммутаторы друг с другом. Группа связанных коммутаторов носит название Fibre Channel Fabric или просто Fabric. Связи между коммутаторами называют Interswitch Links или сокращенно ISL.

Программное обеспечение

Программное обеспечение позволяет реализовать резервирование путей доступа серверов к дисковым массивам и динамическое распределение нагрузки между путями. Для большинства дисковых массивов существует простой способ определить, что порты, доступные через разные контроллеры , относятся к одному диску. Специализированное программное обеспечение поддерживает таблицу путей доступа к устройствам и обеспечивает отключение путей в случае аварии, динамическое подключение новых путей и распределение нагрузки между ними. Как правило, изготовители дисковых массивов предлагают специализированное программное обеспечение такого типа для своих массивов. Компания VERITAS Software производит программное обеспечение VERITAS Volume Manager , предназначенное для организации логических дисковых томов из физических дисков и обеспечивающее резервирование путей доступа к дискам, а также распределение нагрузки между ними для большинства известных дисковых массивов.

Используемые протоколы

В сетях хранения данных используются низкоуровневые протоколы:

  • Fibre Channel Protocol (FCP), транспорт SCSI через Fibre Channel. Наиболее часто используемый на данный момент протокол . Существует в вариантах 1 Gbit/s, 2 Gbit/s, 4 Gbit/s, 8 Gbit/s и 10 Gbit/s.
  • iSCSI , транспорт SCSI через TCP/IP .
  • FCoE , транспортировка FCP/SCSI поверх "чистого" Ethernet.
  • FCIP и iFCP , инкапсуляция и передача FCP/SCSI в пакетах IP.
  • HyperSCSI , транспорт SCSI через Ethernet .
  • FICON транспорт через Fibre Channel (используется только мейнфреймами).
  • ATA over Ethernet , транспорт ATA через Ethernet.
  • SCSI и/или TCP/IP транспорт через InfiniBand (IB).

Преимущества

  • Высокая надёжность доступа к данным, находящимся на внешних системах хранения. Независимость топологии SAN от используемых СХД и серверов.
  • Централизованное хранение данных (надёжность, безопасность).
  • Удобное централизованное управление коммутацией и данными.
  • Перенос интенсивного трафика ввода-вывода в отдельную сеть – разгрузка LAN.
  • Высокое быстродействие и низкая латентность.
  • Масштабируемость и гибкость логической структуры SAN
  • Географические размеры SAN, в отличие от классических DAS, практически не ограничены.
  • Возможность оперативно распределять ресурсы между серверами.
  • Возможность строить отказоустойчивые кластерные решения без дополнительных затрат на базе имеющейся SAN.
  • Простая схема резервного копирования – все данные находятся в одном месте.
  • Наличие дополнительных возможностей и сервисов (снапшоты, удаленная репликация).
  • Высокая степень безопасности SAN.

Совместное использование систем хранения как правило упрощает администрирование и добавляет изрядную гибкость, поскольку кабели и дисковые массивы не нужно физически транспортировать и перекоммутировать от одного сервера к другому.

Другим приемуществом является возможность загружать сервера прямо из сети хранения. При такой конфигурации можно быстро и легко заменить сбойный

Каково назначение систем хранения данных (СХД)?

Системы хранения данных предназначены для безопасного и отказоустойчивого хранения обрабатываемых данных с возможностями быстрого восстановления доступа к данным в случае сбоя в работе системы.

Какие основные разновидности СХД?

По типу реализации СХД делятся на аппаратные и программные. По области применения СХД делятся на индивидуальные, для малых рабочих групп, для рабочих групп, для предприятий, корпоративные. По типу подключения СХД делятся на:

1. DAS (Direct Attached Storage — системы с прямым подключением)

Особенностью данного типа систем является то, что контроль за доступом к данным для устройств, подключенных к сети, осуществляется сервером или рабочей станцией, к которой подключено хранилище.

2. NAS (Network Attached Storage — системы, подключаемые к ЛВС)

В данном типе систем доступ к информации, размещенной в хранилище, контролируется программным обеспечением, которое работает в самом хранилище.

3. SAN (Storage Attached Network — системы, представляющие собой сеть между серверами, которые обрабатывают данные и, собственно, СХД);

При таком способе построения системы хранения данных контроль за доступом к информации осуществляется программным обеспечением, работающим на серверах СХД. Через коммутаторы SAN производится подключение хранилища к серверам по высокопроизводительным протоколам доступа (Fibre channel, iSCSI, ATA over ethernet, и т.п.)

Каковы особенности программной и аппаратной реализации СХД?

Аппаратная реализация СХД представляет собой единый аппаратный комплекс, состоящий из устройства хранения (представляющего собой диск или массив дисков, на которых данные физически хранятся), и устройства управления (контроллер, занимающийся распределением данных между элементами хранилища).

Программная реализация СХД представляет собой распределенную систему, в которой данные хранятся без привязки к какому-либо конкретному хранилищу или серверу, и доступ к данным осуществляется посредством специализированного ПО, которое отвечает за сохранность и безопасность хранимых данных).

Зависимость бизнес-процессов предприятия от ИТ-сферы постоянно растет. На сегодня вопросу непрерывности работы ИТ-сервисов уделяют внимание не только крупные компании, но и представители среднего, а зачастую и малого бизнеса.

Одним из центральных элементов обеспечения отказоустойчивости является система хранения данных (СХД) - устройство на котором централизовано храниться вся информация. СХД характеризуется высокой масштабируемостью, отказоустойчивостью, возможностью выполнять все сервисные операции без остановки работы устройства (в том числе замену компонентов). Но стоимость даже базовой модели измеряется в десятках тысяч долларов. Например, Fujitsu ETERNUS DX100 с 12-ю дисками Nearline SAS 1Tb SFF (RAID10 6TB) стоит порядка 21 000 USD , что для небольшой компании очень дорого.

В нашей статье мы предлагаем рассмотреть варианты организации бюджетного хранилища , которое не проигрывает по производительности и надежности классическим системам. Для его реализации предлагаем использовать CEPH .

Что такое CEPH и как он работает?

CEPH – хранилище на базе свободного ПО, представляет из себя объединение дисковых пространств нескольких серверов (количество серверов на практике измеряется десятками и сотнями). CEPH позволяет создать легкомасштабируемое хранилище с высокой производительностью и избыточностью ресурсов. CEPH может использоваться как в качестве объектного хранилища (служить для хранения файлов) так и в качестве блочного устройства (отдача виртуальных жестких дисков).

Отказоустойчивость хранилища обеспечивается репликацией каждого блока данных на несколько серверов. Количество одновременно хранимых копий каждого блока называется фактором репликации, по умолчанию его значение равно 2. Схема работы хранилища показана на рисунке 1, как видим информация разбивается на блоки, каждый из которых распределяется по двум разным нодам.

Рисунок 1 - Распределение блоков данных


Если на серверах не используются отказоустойчивые дисковые массивы, для надежного хранения данных рекомендуется использовать более высокое значение фактора репликации. В случае выхода из строя одного из серверов CEPH фиксирует недоступность блоков данных (рисунок 2), которые на нем размещены, ожидает определенное время (параметр настраивается, по умолчанию 300 сек.), после чего начинает воссоздание недостающих блоков информации в другом месте (рисунок 3).

Рисунок 2 - Выход из строя одной ноды


Рисунок 3 - Восстановление избыточности


Аналогично, в случае добавления в кластер нового сервера происходит ребаллансировка хранилища с целью равномерного заполнения дисков на всех нодах. Механизм который контролирует процессы распределения блоков информации в кластере CEPH называется CRUSH.

Для получения высокой производительности дискового пространства в кластерах CEPH рекомендуется использовать функционал cache tiering (многоуровневое кэширование). Смысл его заключается в том, чтобы создать отдельный высокопроизводительный пул и использовать его для кэширования, основная же информация будет размещена на более дешевых дисках (рисунок 4).

Рисунок 4 - Логическое представление дисковых пулов


Многоуровневое кэширование будет работать следующим образом: запросы клиентов на запись будут записываться в самый быстрый пул, после чего перемещаться на уровень хранения. Аналогично по запросам на чтение – информация при обращении будет подниматься на уровень кэширования и обрабатываться. Данные продолжают оставаться на уровне кэша пока не становятся неактивными или пока не теряют актуальность (рисунок 5). Стоит отметить, что кэширование можно настроить только на чтение, в этом случае запросы на запись будут заноситься прямо в пул хранения.

Рисунок 5 - Принцип работы кэш-тирринг


Рассмотрим реальные сценарии использования CEPH в организации для создания хранилища данных. В качестве потенциального клиента рассматриваются организации малого и среднего бизнеса, где будет наиболее востребована эта технология. Мы рассчитали 3 сценария использования описанного решения:

  1. Производственное или торговое предприятие с требованием к доступности внутренней ERP системы и файлового хранилища 99,98% в год, 24/7.
  2. Организация, которой для ее бизнес-задач требуется развернуть локальное частное облако.
  3. Очень бюджетное решение для организации отказоустойчивого блочного хранилища данных, полностью независимое от аппаратного обеспечения с доступностью 99,98% в год и недорогим масштабированием.

Сценарий использования 1. Хранилище данных на базе CEPH

Рассмотрим реальный пример применения CEPH в организации. Например, нам требуется отказоустойчивое производительное хранилище объемом 6 Тб, но затраты даже на базовую модель СХД с дисками составляют порядка $21 000 .

Собираем хранилище на базе CEPH. В качестве серверов предлагаем использовать решение Supermicro Twin (Рисунок 6). Продукт представляет собой 4 серверные платформы в едином корпусе высотой 2 юнита, все основные узлы устройства дублируются, что обеспечивает его непрерывное функционирование. Для реализации нашей задачи будет достаточно использовать 3 ноды, 4-я будет в запасе на будущее.




Рисунок 6 - Supermicro Twin


Комплектуем каждую из нод следующим образом: 32 Гб ОЗУ, 4-х ядерный процессор 2,5 Ггц, 4 SATA диска по 2 Тб для пула хранения объединяем в 2 массива RAID1, 2 SSD диска для пула кэширования также объединяем в RAID1 . Стоимость всего проекта указана в таблице 1.

Таблица 1. Комплектующие для хранилища на базе CEPH

Комплектующие Цена, USD Кол-во Стоимость, USD
4 999,28 1 4 999,28
139,28 6 835,68
Процессор Ivy Bridge-EP 4-Core 2.5GHz (LGA2011, 10MB, 80W, 22nm) Tray 366,00 3 1 098,00
416,00 12 4 992,00
641,00 6 3 846,00
ИТОГО 15 770,96

Вывод: В результате построения хранилища получим дисковый массив 6Tb c затратами порядка $16 000 , что на 25% меньше чем закупка минимальной СХД, при этом на текущих мощностях можно запустить виртуальные машины, работающие с хранилищем, тем самым сэкономить на покупке дополнительных серверов. По сути – это законченное решение.

Серверы, из которых строится хранилище, можно использовать не только как вместилище жестких дисков, но в качестве носителей виртуальных машин или серверов приложений.

Сценарий использования 2. Построение частного облака

Задача состоит в том, чтобы развернуть инфраструктуру для построения частного облака с минимальными затратами.

Построение даже небольшого облака состоящего из например из 3-х носителей примерно в $36 000 : $21 000 – стоимость СХД + $5000 за каждый сервер с 50% наполнением.

Использование CEPH в качестве хранилища позволяет совместить вычислительные и дисковые ресурсы на одном оборудовании. То есть не нужно закупать отдельно СХД - для размещения виртуальных машин будут использоваться диски установленные непосредственно в серверы.

Краткая справка:
Классическая облачная структура представляет из себя кластер виртуальных машин, функционирование которых обеспечивают 2 основных аппаратных компонента:

  1. Вычислительная часть (compute) - серверы, заполненные оперативной памятью и процессорами, ресурсы которых используются виртуальными машинами для вычислений
  2. Система хранения данных (storage) – устройство наполненное жесткими дисками, на котором хранятся все данные.

В качестве оборудования берем те же серверы Supermicro, но ставим более мощные процессоры – 8-ми ядерные с частотой 2,6 GHz, а также 96 Гб ОЗУ в каждую ноду , так как система будет использоваться не только для хранения информации, но и для работы виртуальных машин. Набор дисков берем аналогичный первому сценарию.

Таблица 2. Комплектующие для частного облака на базе CEPH

Комплектующие Цена, USD Кол-во Стоимость, USD
Supermicro Twin 2027PR-HTR: 4 hot-pluggable systems (nodes) in a 2U form factor. Dual socket R (LGA 2011), Up to 512GB ECC RDIMM, Integrated IPMI 2.0 with KVM and Dedicated LAN. 6x 2.5" Hot-swap SATA HDD Bays. 2000W Redundant Power Supplies 4 999,28 1 4 999,28
Модуль памяти Samsung DDR3 16GB Registered ECC 1866Mhz 1.5V, Dual rank 139,28 18 2 507,04
Процессор Intel Xeon E5-2650V2 Ivy Bridge-EP 8-Core 2.6GHz (LGA2011, 20MB, 95W, 32nm) Tray 1 416,18 3 4 248,54
Жесткий диск SATA 2TB 2.5" Enterprise Capacity SATA 6Gb/s 7200rpm 128Mb 512E 416 12 4 992,00
Твердотельный накопитель SSD 2.5"" 400GB DC S3710 Series. 641 6 3 846,00
ИТОГО 20 592,86

Собранное облако будет иметь следующие ресурсы с учетом сохранения стабильности при выходе из строя 1-й ноды:

  • Оперативная память: 120 Гб
  • Дисковое пространство 6000 Гб
  • Процессорные ядра физические: 16 Шт.

Собранный кластер сможет поддерживать порядка 10 средних виртуальных машин с характеристиками: 12 ГБ ОЗУ / 4 процессорных ядра / 400 ГБ дискового пространства.

Также стоит учесть что все 3 сервера заполнены только на 50% и при необходимости их можно доукомплектовать, тем самым увеличив пул ресурсов для облака в 2 раза.

Вывод: Как видим, мы получили как полноценный отказоустойчивый кластер виртуальных машин, так и избыточное хранилище данных - выход из строя любого из серверов не критичен – система продолжит функционирование без остановки, при этом стоимость решения примерно в 1,5 раза ниже , чем купить СХД и отдельные сервера.

Сценарий использования 3. Построение сверхдешевого хранилища данных

Если бюджет совсем ограничен и нет денег на закупку оборудования описанного выше, можно закупить серверы бывшие в употреблении, но на дисках экономить не стоит – их настоятельно рекомендуется купить новые.

Предлагаем рассмотреть следующую структуру: закупается 4 серверные ноды, в каждый сервер ставиться по 1 SSD-диску для кэширования и по 3 SATA диска . Серверы Supermicro с 48 ГБ ОЗУ и процессорами линейки 5600 можно сейчас купить примерно за $800 .

Диски не будут собираться в отказоустойчивые массивы на каждом сервере, а будут представлены как отдельное устройство. В связи с этим для повышения надежности хранилища будем использовать фактор репликации 3. То есть у каждого блока будет 3 копии. При такой архитектуре зеркалирования дисков SSD кеша не требуется, так как происходит автоматическое дублирование информации на другие ноды.

Таблица 3. Комплектующие для стореджа

Вывод: В случае необходимости в данном решении можно использовать диски большего объема, либо заменить их на SAS, если нужно получить максимальную производительность для работы СУБД. В данном примере в результате получим хранилище объемом 8 ТБ с очень низкой стоимостью и очень высокой отказоустойчивостью. Цена одного терабайта получилась в 3,8 раза дешевле , чем при использовании промышленной СХД за $21000.

Итоговая таблица, выводы

Конфигурация СХД Fujitsu ETERNUS DX100 + 12 Nearline SAS 1Tb SFF (RAID10) СХД Fujitsu ETERNUS DX100 + 12 Nearline SAS 1Tb SFF (RAID10) + Supermicro Twin Наш сценарий 1: хранилище на базе CEPH Наш сценарий 2: построение частного облака Нашсценарий 3: построение сверхдешевого хранилища
Полезный обьем, ГБ 6 000 6 000 6 000 6000 8 000
Цена, USD 21000 36000 15 770 20 592 7 324
Стоимость 1 ГБ, USD 3,5 6 2,63 3,43 0,92
Количество IOPs* (чтение 70%/запись 30%, Размер блока 4К) 760 760 700 700 675
Назначение Хранилище Хранилище + Вычисление Хранилище + Вычисление Хранилище + Вычисление Хранилище + Вычисление

*Расчет количества IOPs выполнен для созданных массивов из дисков NL SAS на СХД и дисков SATA на сторедже CEPH, кэширование отключалось для чистоты полученных значений. При использовании кэширования показатели IOPs будут значительно выше до момента заполнения кэша.

В итоге можно сказать, что на основе кластера CEPH можно строить надежные и дешевые хранилища данных. Как показали расчеты, использовать ноды кластера только для хранения не очень эффективно – решение выходит дешевле чем закупить СХД, но не на много – в нашем примере стоимость хранилища на CEPH была примерно на 25% меньше чем Fujitsu DX100. По-настоящему экономия ощущается в результате совмещения вычислительной части и хранилища на одном оборудовании - в таком случае стоимость решения будет в 1,8 раз меньше, чем при построении классической структуры с применением выделенного хранилища и отдельных хост-машин.

Компания EFSOL реализует данное решение по индивидуальным требованиям. Мы можем использовать имеющееся у вас оборудование, что ещё более снизит капитальные затраты на внедрение системы. Свяжитесь с нами и мы проведем обследование вашего оборудования на предмет его использования при создании СХД.

В этой статье речь пойдет о системах хранения данных начального и среднего уровня, а также тех тенденциях, которые сегодня ярко выделяются в этой отрасли. Для удобства будем называть системы хранения данных накопителями.

Сначала мы немного остановимся на терминологии и технологических основах автономных накопителей, а потом перейдём к новинкам и обсуждению современных достижений в разных технологических и маркетинговых группах. Мы также обязательно расскажем о том, зачем нужны системы того или иного вида и насколько эффективным является их использование в разных ситуациях.

Автономные дисковые подсистемы

Для того, чтобы лучше понять особенности автономных накопителей, остановимся немного на одной из более простых технологий построения систем хранения данных - шинно-ориентированной технологии. Она предусматривает использование корпуса для дисковых накопителей и контроллера PCI RAID.

Рисунок 1. Шинно-ориентированная технология постоения систем хранения данных

Таким образом, между дисками и PCI-шиной хоста (от англ. Host - в данном случае автономный компьютер, например сервер или рабочая станция) есть только один контроллер, который в значительной мере и задает быстродействие системы. Накопители, построенные по этому принципу, являются наиболее производительными. Но в связи с архитектурными особенностями практическое их использование, за исключением редких случаев, ограничивается конфигурациями с одним хостом.

К недостаткам шинно-ориентированной архитектуры накопителей следует отнести:

  • эффективное использование только в конфигурациях с одним хостом;
  • зависимость от операционной системы и платформы;
  • ограниченную масштабируемость;
  • ограниченные возможности по организации отказоустойчивых систем.

Естественно, всё это неважно, если данные нужны для одного сервера или рабочей станции. Наоборот, в такой конфигурации вы получите максимальное быстродействие за минимальные деньги. Но если вам нужна система хранения данных для большого вычислительного центра или даже для двух серверов, которым нужны одни и те же данные, шинно-ориентированная архитектура совершенно не подходит. Недостатков этой архитектуры позволяет избежать архитектура автономных дисковых подсистем. Основной принцип ее построения достаточно прост. Контроллер, который управляет системой, переносится из хост-компьютера в корпус накопителя, обеспечивая независимое от хост-систем функционирование. Следует отметить, что такая система может иметь большое количество внешних каналов ввода/вывода, что обеспечивает возможность подключения к системе нескольких, или даже многих компьютеров.


Рисунок 2. Автономная система хранения данных

Любая интеллектуальная система хранения данных состоит из аппаратной части и программного кода. В автономной системе всегда есть память, в которой хранится программа алгоритмов работы самой системы и процессорные элементы, которые этот код обрабатывают. Такая система функционирует независимо от того, с какими хост-системами она связана. Благодаря своей интеллектуальности автономные накопители зачастую самостоятельно реализуют множество функций по обеспечению сохранности и управлению данными. Одна из самых важных базовых и практически повсеместно используемых функций - это RAID (Redundant Array of Independent Disks). Другая, принадлежащая уже системам среднего и высокого уровня - это виртуализация. Она обеспечивает такие возможности как мгновенная копия или удаленное резервирование, а также другие, достаточно изощрённые алгоритмы.

Коротко о SAS, NAS, SAN

В рамках рассмотрения автономных систем хранения данных обязательно следует остановиться на том, каким образом осуществляется доступ хост-систем к накопителям. Это в значительной мере определяет сферы их использования и внутреннюю архитектуру.

Различают три основных варианта организации доступа к накопителям:

  • SAS (Server Attached Storage) - накопитель, подсоединенный к серверу [ второе название DAS (Direct Attached Storage) - напрямую подсоединённый накопитель ];
  • NAS (Network Attached Storage) - накопитель, подсоединенный к сети;
  • SAN (Storage Area Network) - сеть хранения данных.

Мы уже писали о технологиях SAS/DAS, NAS и SAN в статье посвященной SAN, если кого эта информация заинтересует, рекомендуем обратиться к страницам iXBT . Но всё же позволим себе немножко освежить материал с акцентом на практическое использование.

SAS/DAS - это достаточно простой традиционный способ подключения, который подразумевает прямое (отсюда и DAS) подсоединение системы хранения к одной или нескольким хост-системам через высокоскоростной канальный интерфейс. Часто в таких системах, для подсоединения накопителя к хосту используется такой же интерфейс, который используется для доступа к внутренним дискам хост-системы, что в общем случае обеспечивает высокое быстродействие и простое подключение.

SAS-систему можно рекомендовать к использованию в случае, если имеется потребность в высокоскоростной обработке данных больших объемов на одной или нескольких хост-системах. Это, например, может быть файл-сервер, графическая станция или отказоустойчивая кластерная система, состоящая из двух узлов.



Рисунок 3. Кластерная система с общим накопителем

NAS - накопитель, который подсоединен к сети и обеспечивает файловый (обратите внимание - файловый, а не блочный) доступ к данным для хост-систем в сети LAN/WAN. Клиенты, которые работает с NAS, для доступа к данным обычно используют протоколы NSF (Network File System) или CIFS (Common Internet File System). NAS интерпретирует команды файловых протоколов и исполняет запрос к дисковым накопителям в соответствии с используемым в нём канальным протоколом. Фактически, архитектура NAS - это эволюция файловых серверов. Главным преимуществом такого решения является быстрота развёртывания и качество организации доступа к файлам, благодаря специализации и узкой направленности.

Исходя из сказанного, NAS можно рекомендовать для использования в случае, если нужен сетевой доступ к файлам и достаточно важными факторами являются: простота решения (что обычно является неким гарантом качества) и простота его сопровождения и установки . Прекрасным примером является использование NAS в качестве файл-сервера в офисе небольшой компании, для которой важна простота установки и администрирования. Но в то же время, если вам нужен доступ к файлам с большого количества хост-систем, мощный NAS-накопитель, благодаря отточенному специализированному решению, способен обеспечить интенсивный обмен трафиком с огромным пулом серверов и рабочих станций при достаточно низкой стоимости используемой коммуникационной инфраструктуры (например, коммутаторов Gigabit Ethernet и медной витой пары).

SAN - сеть хранения данных. Обычно в SAN используется блочный доступ к данным, хотя возможно подключение к сетям хранения данных устройств, предоставляющих файловые сервисы, например NAS. В современных реализациях сети хранения данных чаще всего используют протокол Fibre Channel, но в общем случае это не является обязательным, в связи с чем, принято выделять отдельный класс Fibre Channel SAN (сети хранения данных на основе Fibre Channel).

Основой SAN является отдельная от LAN/WAN сеть, которая служит для организации доступа к данным серверов и рабочих станций, непосредственно занимающихся обработкой. Такая структура делает построение систем с высокой готовностью и высокой интенсивностью запросов относительно простой задачей. Несмотря на то, что SAN сегодня остается дорогим удовольствием, TCO (общая стоимость владения) для средних и больших систем, построенных с использованием технологии сетей хранения данных, является довольно низкой. Описание способов снижения TCO корпоративных систем хранения данных благодаря SAN можно найти на страницах ресурса techTarget: http://searchstorage.techtarget.com .

Сегодня стоимость дисковых накопителей с поддержкой Fibre Channel, как наиболее распространенного интерфейса для построения SAN, близка к стоимости систем с традиционными недорогими канальными интерфейсами (такими как параллельный SCSI). Главными стоимостными составляющими в SAN остается коммуникационная инфрастуктура, а также стоимость ее развёртывания и сопровождения. В связи с чем, в рамках SNIA и многих коммерческих организациях ведётся активная работа над технологиями IP Storage, что позволяет использовать значительно более недорогую аппаратуру и инфраструктуру IP-сетей, а также колоссальный опыт специалистов в этой сфере.

Примеров по эффективному использованию SAN можно привести достаточно много. Практически везде, где имеется необходимость использования нескольких серверов с совместной системой хранения данных, можно использовать SAN. Например, для организации коллективной работы над видеоданными или предварительной обработки печатной продукции. В такой сети каждый участник процесса обработки цифрового контента получает возможность практически одновременно работать над Терабайтами данных. Или, например, организация резервирования больших объемов данных, которыми пользуется множество серверов. При построении SAN и использовании независимого от LAN/WAN алгоритма резервирования данных и технологий «моментальной копии», можно резервировать почти любые объёмы информации без ущерба функциональности и производительности всего информационного комплекса.

Fibre Channel в сетях хранения данных

Безусловным фактом является то, что сегодня именно FC (Fibre Channel) доминирует в сетях хранения данных. И именно развитие этого интерфейса привело к развитию самой концепции SAN.

В проектировании FC принимали участие специалисты со значительным опытом в разработке как канальных, так и сетевых интерфейсов, и им удалось объединить все важные положительные черты обоих направлений. Одним из важнейших преимуществ Fibre Channel наряду со скоростными параметрами (которые, кстати, не всегда являются главными для пользователей SAN, и могут быть реализованы с помощью других технологий) является возможность работы на больших расстояниях и гибкость топологии, которая пришла в новый стандарт из сетевых технологий. Таким образом, концепция построения топологии сети хранения данных базируется на тех же принципах, что и традиционные локальные сети, на основе концентраторов, коммутаторов и маршрутизаторов, что значительно упрощает построение многоузловых конфигураций систем, в том числе без единой точки отказов.

Стоит также отметить, что в рамках Fibre Channel для передачи данных используются как оптоволоконные, так и медные среды. При организации доступа к территориально удаленным узлам на расстоянии до 10 киллометров используется стандартная аппаратура и одномодовое оптоволокно для передачи сигнала. Если же узлы разнесены на 10-ки или даже 100-ни километров используются специальные усилители. При построении таких SAN учитываются достаточно нетрадиционные для систем хранения данных параметры, например, скорость распространения сигнала в оптоволокне.

Тенденции развития систем хранения данных

Мир систем хранения данных чрезвычайно разнообразен. Возможности систем хранения данных, так и стоимость решений достаточно дифференцирована. Существуют решения, объединяющие в себе возможности обслуживания сотен тысяч запросов в секунду к десяткам и даже сотням Терабайт данных, а также решения для одного компьютера с недорогими дисками с IDE-интерфейсом.

IDE RAID

В последнее время максимальный объем дисков с IDE-интерфейсом колоссально увеличился и опережает SCSI-диски примерно в два раза, а если говорить о соотношении цена на единицу объёма, то IDE-диски лидируют с разрывом более чем в 6 раз. Это, к сожалению, не повлияло положительно на надежность IDE-дисков, но всё же сфера их применения в автономных системах хранения данных неумолимо увеличивается. Главным фактором в этом процессе является то, что потребность в больших объёмах данных растёт быстрее, чем объем одиночных дисков.

Еще несколько лет назад редкие производители решались выпускать автономные подсистемы, ориентированные на использование IDE-дисков. Сегодня их выпускает практически каждый производитель, ориентированный на рынок систем начального уровня. Наибольшее распространение в классе автономных подсистем с IDE-дисками наблюдается в NAS-системах начального уровня. Ведь если вы используете NAS в качестве файлового сервера с интерфейсом Fast Ethernet или даже Gigabit Ethernet, то в большинстве случаев быстродействия таких дисков является более чем достаточным, а их низкая надёжность компенсируется использованием технологии RAID.

Там, где необходим блочный доступ к данным при минимальной цене за единицу хранимой информации, сегодня активно используются системы с IDE-дисками внутри и с внешним SCSI-интерфейсом. Например, на системе JetStor IDE производства американской компании AC&NC для построения отказоустойчивого архива с объёмом хранимых данных в 10 Терабайт и возможностью быстрого блочного доступа к данным стоимость хранения одного Мегабайта будет составлять меньше 0,3 цента.

Ещё одной интересной и достаточно оригинальной технологией, с которой пришлось познакомиться совсем недавно, была система Raidsonic SR-2000 с внешним параллельным IDE-интерфейсом.


Рисунок 4. Автономный IDE RAID начального уровня

Это автономная дисковая система, рассчитанная на использование двух IDE дисков и ориентированная на монтаж внутри корпуса хост-системы. Она абсолютно независима от операционной системы на хост-машине. Система позволяет организовать RAID 1 (зеркало) или просто копирование данных с одного диска на другой с возможностью горячей замены дисков, без какого-либо ущерба или неудобства со стороны пользователя компьютера, чего не скажешь о шинно-ориентированых подсистемах, построенных на контроллерах PCI IDE RAID.

Следует заметить, что ведущие производители IDE-дисков анонсировали выпуск дисков среднего класса с интерфейсом Serial ATA, в которых будут использоваться высокоуровневые технологии. Это должно благоприятно повлиять на их надежность и увеличить долю ATA-решений в системах хранения данных.

Что нам принесёт Serial ATA

Первое и самое приятное, что можно найти в Serial ATA - это кабель. В связи с тем, что интерфейс ATA стал последовательным, кабель стал круглым, а коннектор - узким. Если вам приходилось укладывать кабели параллельного IDE-интерфейса в системе на восемь IDE-каналов, я уверен, что вам понравится эта особенность. Конечно, уже давно существовали круглые IDE-кабели, но коннектор у них всё же оставался широким и плоским, да и максимально допустимая длина параллельного ATA-кабеля не радует. При построении систем с большим количеством дисков, наличие стандартного кабеля вообще не сильно помогает, так как кабели приходится делать самостоятельно, и при этом их укладка становится едва ли не главной по времени задачей при сборке.

Кроме особенности кабельной системы, в Serial ATA есть другие нововведения, которые для параллельной версии интерфейса реализовать самостоятельно с помощью канцелярского ножа и другого подручного инструмента не удастся. В дисках с новым интерфейсом скоро должна появиться поддержка набора инструкций Native Command Queuing (конвейеризации команд). При использовании Native Command Queuing, контроллер Serial ATA анализирует запросы ввода-вывода и оптимизирует очередность их выполнения таким образом, чтобы минимизировать время поиска. Достаточно очевидна схожесть идеи Serial ATA Native Command Queuing с организацией очереди команд в SCSI, правда, для Serial ATA будет поддерживаться очередь до 32 команд, а не традиционных для SCSI - 256. Появилась также родная поддержка горячей замены устройств. Конечно, такая возможность существовала и ранее, но её реализация была за рамками стандарта и, соответственно, не могла получить широкое распространение. Говоря о новых скоростных возможностях Serial ATA, следует заметить, что сейчас от них радости пока большой нет, но главное здесь то, что на будущее есть хороший Roadmap, реализовать который в рамках параллельного ATA было бы очень не просто.

Учитывая сказанное, можно не сомневаться, что доля ATA-решений в системах хранения начального уровня должна увеличиться именно за счёт новых дисков Serial ATA и систем хранения данных, ориентированных на использование таких устройств.

Куда идет параллельный SCSI

Все, кто работает с системами хранения данных, даже начального уровня, вряд ли могут сказать, что им нравятся системы с IDE-дисками. Главное преимущество ATA дисков - их низкая цена, по сравнению со SCSI-устройствами ну и еще, наверное, более низкий уровень шума. И происходит всё это по простой причине, так как SCSI-интерфейс лучше подходит для использования в системах хранения данных и пока значительно дешевле, чем еще более функциональный интерфейс - Fibre Channel, то и диски со SCSI-интерфейсом производятся более качественные, надёжные и быстрые, чем с дешёвым IDE-интерфейсом.

Сегодня многие производители при проектировании систем хранения с параллельным SCSI используют Ultra 320 SCSI, самый новый интерфейс в семействе. Некогда во многих Roadmap были планы по выпуску устройств с интерфейсом Ultra 640 и даже Ultra 1280 SCSI, но всё шло к тому, что в интерфейсе нужно что-то менять кардинальным образом. Параллельный SCSI уже сейчас, на этапе использования Ultra 320, многих не устраивает, главным образом по причине неудобства использования классических кабелей.

К счастью, недавно появился новый интерфейс Serial Attached SCSI (SAS). У нового стандарта будут интересные особенности. Он объединяет в себе некоторые возможности Serial ATA и Fibre Channel. Несмотря на эту странность, следует сказать, что в таком переплетении есть некий здравый смысл. Стандарт возник на основе физических и электрических спецификаций последовательного ATA с такими усовершенствованиями, как увеличение уровня сигнала для соответствующего увеличения длинны кабеля, увеличение максимальной адресуемости устройств. А самое интересное то, что технологи обещают обеспечить совместимость устройств Serial ATA и SAS, но только в следующих версиях стандартов.

К наиболее важным особенностям SAS можно отнести:

  • интерфейс точка-точка;
  • двухканальный интерфейс;
  • поддержка 4096 устройств в домене;
  • стандартный набор команд SCSI;
  • кабель длинной до 10 метров;
  • кабель 4-жильный;
  • полный дуплекс.

Благодаря тому, что новый интерфейс предлагает использовать такой же миниатюрный коннектор, как и Serial ATA, у разработчиков появляется новая возможность по построению более компактных устройств с высокой производительностью. Стандарт SAS также предусматривает использование расширителей. Каждый расширитель будет поддерживать адресацию 64-х устройств с возможностью каскадирования до 4096 устройств в рамках домена. Это конечно значительно меньше, чем возможности Fibre Channel, но в рамках систем хранения начального и среднего уровней, с накопителями, напрямую подсоединенными к серверу, этого вполне достаточно.

Несмотря на все прелести, интерфейс Serial Attached SCSI вряд ли быстро заместит обычный параллельный интерфейс. В мире решений для предприятий разработки обычно ведутся более тщательно и, естественно, в течение большего времени, чем для настольных систем. Да и уходят старые технологии не очень быстро, так как период, за который они отрабатывают себя, тоже немаленький. Но всё же, в году 2004 устройства с интерфейсом SAS должны выйти на рынок. Естественно, сначала это будут в основном диски и PCI-контролеры, но ещё через годик подтянутся и системы хранения данных.

Для лучшего обобщения информации предлагаем ознакомиться со сравнением современных и новых интерфейсов для систем хранения данных в виде таблицы.

1 - Стандарт регламентирует расстояние до 10 км для одномодового оптоволокна, существуют реализации устройств для передачи данных на расстояние больше чем, 105 м.

2 - В рамках внутренней виртуальной топологии кольца работают концентраторы и некоторые коммутаторы FC, также существует много реализаций коммутаторов, которые обеспечивают соединение точка-точка любых устройств, подсоединенных к ним.

3 - Cуществуют реализации устройств со SCSI, FICON, ESCON, TCP/I, HIPPI, VI протоколами.

4 - Дело в том, что устройства будут взаимно совместимы (так обещают сделать в ближайшем будущем производители). То есть SATA-контроллеры будут поддерживать SAS-диски, а SAS-контроллеры - диски SATA.

Массовое увлечение NAS

Последнее время за рубежом отмечается просто-таки массовое увлечение NAS-накопителями. Дело в том, что с увеличением актуальности ориентированного на данные подхода к построению информационных систем увеличилась привлекательность специализации классических файл-серверов и формирование новой маркетинговой единицы - NAS. При этом опыт в построении подобных систем был достаточным для быстрого старта технологии накопителей, подсоединенных к сети, а стоимость их аппаратной реализации была предельно низкой. Сегодня NAS-накопители производят фактически все производители систем хранения данных, среди них и системы начального уровня за очень маленькие деньги, и среднего, и даже системы, отвечающие за хранение десятков Терабайт информации, способные обработать колоссальное количество запросов. В каждом классе NAS-систем есть свои интересные оригинальные решения.

NAS на основе PC за 30 минут

Мы хотим немного описать одно оригинальное решение начального уровня. О практической ценности его реализации можно спорить, но в оригинальности ему не откажешь.

По сути дела, NAS-накопитель начального уровня, да и не только начального, является достаточно простым персональным компьютером с неким количеством дисков и программной частью, которая обеспечивает доступ других участников сети к данным на файловом уровне. Таким образом, для построения NAS устройства достаточно взять указанные компоненты и соединить их между собой. Все дело в том, насколько качественно вы это сделаете, настолько же надежный и качественный доступ к данным получит рабочая группа, работающая с данными, доступ к которым обеспечивает ваше устройство. Именно учитывая эти факторы, а также время развёртывания решения, плюс некоторые дизайнерские изыскания строится NAS-накопитель начального уровня.

Разница между хорошим NAS-решением начального уровня с самостоятельно собранной и настроенной в рамках выбранной ОС персоналкой, если опять-таки опустить конструктивное исполнение, будет в том:

  • насколько быстро вы это сделаете;
  • насколько просто сможет обслуживаться эта система неквалифицированным персоналом;
  • насколько качественно это решение будет работать и поддерживаться.

Другими словами, в случае профессионального подбора комплектующих и существования некого изначально настроенного набора программного обеспечения, можно достичь хорошего результата. Истина вроде банальная, это же можно сказать о любой задаче, которая решается по схеме готовых компонентных решений: «hardware» плюс «software».

Что предлагает сделать компания «X»? Формируется достаточно ограниченый список совместимых комплектующих: материнских плат со всем интегрированным хозяйством, нужных NAS-серверу начального уровня жёстких дисков. Вы покупаете устанавливаемый в IDE-разъём на материнской плате FLASH диск с записанным программным обеспечением и получаете готовый NAS накопитель. Операционная система и утилиты, записанные на этот диск, загружаясь, конфигурируют нужные модули адекватным образом. И в результате пользователь получает устройство, которое может управляться как локально, так и удаленно через HTML-интерфейс и предоставлять доступ к дисковым накопителям, подключённым к нему.

Файловые протоколы в современных NAS

CIFS (Common Internet File System) - это стандартный протокол, который обеспечивает доступ к файлам и сервисам на удаленных компьютерах (в том числе и в Интернет). Протокол использует клиент-серверную модель взаимодействия. Клиент создает запрос к серверу на доступ к файлам или передачу сообщения программе, которая находится на сервере. Сервер выполняет запрос клиента и возвращает результат своей работы. CIFS - это открытый стандарт, который возник на основе SMB-протокола (Server Message Block Protocol), разработанного Microsoft, но, в отличие от последнего, CIFS учитывает возможность возникновения больших таймаутов, так как ориентирован на использование в том числе и в распределённых сетях. SMB-протокол традиционно использовался в локальных сетях с ОС Windows для доступа к файлам и печати. Для транспортировки данных CIFS использует TCP/IP протокол. CIFS обеспечивает функциональность похожую на FTP (File Transfer Protocol), но предоставляет клиентам улучшенный (похожий на прямой) контроль над файлами. Он также позволяет разделять доступ к файлам между клиентами, используя блокирование и автоматическое восстановление связи с сервером в случае сбоя сети.

NFS (Network File System) - это стандарт IETF, который включает в себя распределенную файловую систему и сетевой протокол. NFS был разработан компанией Sun Microsystem Computer Corporation. Он первоначально использовался только в UNIX-системах, позже реализации клиентской и серверной чатей стали распространенными и в других системах.

NFS, как и CIFS, использует клиент-серверную модель взаимодействия. Он обеспечивает доступ к файлам на удаленном компьютере (сервере) для записи и считывания так, как если бы они находились на компьютере пользователя. В ранних версиях NFS для транспортирования данных использовался UDP-протокол, в современных - используется TCP/IP. Для работы NFS в интерент компанией Sun был разработан протокол WebNFS, который использует расширения функциональности NFS для его корректной работы во всемирной сети.

DAFS (Direct Access File System) - это стандартный протокол файлового доступа, который базируется на NFSv4. Он позволяет прикладным задачам передавать данные в обход операционной системы и ее буферного пространства напрямую к транспортным ресурсам, сохраняя семантику, свойственную файловым системам. DAFS использует преимущества новейших технологий передачи данных по схеме память-память. Его использование обеспечивает высокие скорости файлового ввода-вывода, минимальную загрузку CPU и всей системы, благодаря значительному уменьшению количества операций и прерываний, которые обычно необходимы при обработке сетевых протоколов. Особенно эффективным является использование аппаратных средств поддержки VI (Virtual Interface).

DAFS проектировался с ориентацией на использование в кластерном и серверном окружении для баз данных и разнообразных интернет-приложений, ориентированных на непрерывную работу. Он обеспечивает наименьшие задержки доступа к общим файловым ресурсам и данным, а также поддерживает интеллектуальные механизмы восстановления работоспособности системы и данных, что делает его очень привлекательным для использования в High-End NAS-накопителях.

Все дороги ведут к IP Storage

В системах хранения данных высокого и среднего уровня за последние несколько лет появилось очень много новых интересных технологий.

Fibre Channel сети хранения данных сегодня уже достаточно известная и популярная технология. В то же время, их массовое распространение сегодня является проблематичным из-за ряда особенностей. К ним можно отнести высокую стоимость реализации и сложность построения географически распределённых систем. С одной стороны - это всего лишь особенности технологии уровня предприятия, но с другой, если SAN станет дешевле, и построение распределённых систем упростится, это должно дать просто-таки колоссальный прорыв в развитии сетей хранения данных.

В рамках работы над сетевыми технологиями хранения данных в Internet Engineering Task Force (IETF) была создана рабочая группа и форум IP Storage (IPS) по направлениям:

FCIP - Fibre Channel over TCP/IP, созданный на базе TCP/IP туннельный протокол, функцией которого является соединение географически удаленных FC SAN без какого либо воздействия на FC и IP протоколы.

iFCP - Internet Fibre Channel Protocol, созданный на базе TCP/IP протокол для соединения FC систем хранения данных ли FC сетей хранение данных, используя IP инфраструктуру совместно или вместо FC коммутационных и маршрутизирующих элементов.

iSNS - Internet Storage Name Service, протокол поддержке имён накопителей в сети Интернет.

iSCSI - Internet Small Computer Systems Interface, это протокол, который базируется на TCP/IP и разработан для установления взаимодействия и управления системами хранения данных, серверами и клиентами (Определение SNIA - IP Storage Forum: ).

Самым бурно развивающимся и самым интересным из перечисленных направлений является iSCSI.

iSCSI - новый стандарт

11 февраля 2003 года iSCSI стал официальным стандартом. Ратификация iSCSI обязательно повлияет на более широкий интерес к стандарту, который уже развивается достаточно активно. Быстрее всего развитие iSCSI послужит толчком к распространению SAN в малом и среднем бизнесе, так как использование соответствующего стандарту оборудования и подхода к обслуживанию (в том числе распространённого в рамках стандартных Ethernet сетей) позволит сделать сети хранения данных значительно дешевле. Что же касается использования iSCSI в Интернет, то сегодня здесь уже неплохо прижился FCIP, и конкуренция с ним будет трудной.

Новый стандарт охотно поддержали известные IT-компании. Есть, конечно, и противники, но всё же, практически все компании, которые активно участвуют в рынке систем начального и среднего уровня, уже работают над устройствами с поддержкой iSCSI. В Windows и Linux iSCSI драйверы уже включены, системы хранения данных iSCSI производит IBM, адаптеры - Intel, в ближайшее время подключиться к процессу освоения нового стандарта обещают HP, Dell, EMC.

Одной из очень интересных особенностей iSCSI является то, что для передачи данных на накопителе с интерфейсом iSCSI можно использовать не только носители, коммутаторы и маршрутизаторы существующих сетей LAN/WAN, но и обычные сетевые адаптеры Fast Ethernet или Gigabit Ethernet на стороне клиента. Правда, при этом возникают значительные накладные расходы процессорной мощности ПК, который использует такой адаптер. По утверждению разработчиков, программная реализация iSCSI может достичь скоростей среды передачи данных Gigabit Ethernet при значительной, до 100% загрузке современных CPU. В связи с чем рекомендуется использование специальных сетевых карточек, которые будут поддерживать механизмы разгрузки CPU от обработки стека TCP.

Виртуализация в сетях хранения данных

Ёщё одной важной технологией в построении современных накопителей и сетей хранения данных является виртуализация.

Виртуализация систем хранения данных - это представление физических ресурсов в некоем логическом, более удобном виде. Эта технология позволяет гибко распределять ресурсы между пользователями и эффективно ими управлять. В рамках виртуализации успешно реализуется удаленное копирование, моментальная копия, распределение запросов ввода-вывода на наиболее подходящие по характеру обслуживания накопители и множество других алгоритмов. Реализация алгоритмов виртуализации может осуществляться как средствами самого накопителя, так и с помощью внешних устройств виртуализации или же с помощью управляющих серверов, на которых работает специализированное программное обеспечение под стандартными ОС.

Это, конечно, очень малая часть того, что можно сказать о виртуализации. Эта тема очень интересна и обширна, поэтому мы решили посвятить ей отдельную публикацию.

С повседневным усложнением сетевых компьютерных систем и глобальных корпоративных решений мир начал требовать технологий, которые бы дали толчок к возрождению корпоративных систем хранения информации (сторедж-систем). И вот, одна единая технология приносит в мировую сокровищницу достижений в области сторедж невиданное ранее быстродействие, колоссальные возможности масштабирования и исключительные преимущества общей стоимости владения. Обстоятельства, которые сформировались с появлением стандарта FC-AL (Fibre Channel - Arbitrated Loop) и SAN (Storage Area Network), которая развивается на его основе, обещают революцию в дата-ориентированных технологиях компьютинга.

«The most significant development in storage we"ve seen in 15 years»

Data Communications International, March 21, 1998

Формальное определение SAN в трактовке Storage Network Industry Association (SNIA):

«Сеть, главной задачей которой является передача данных между компьютерными системами и устройствами хранения данных, а также между самими сторедж-системами. SAN состоит из коммуникационной инфраструктуры, которая обеспечивает физическую связь, а также отвечает за уровень управления (management layer), который объединяет связи, сторедж и компьютерные системы, осуществляя передачу данных безопасно и надежно».

SNIA Technical Dictionary, copyright Storage Network Industry Association, 2000

Варианты организации доступа к сторедж-системам

Различают три основных варианта организации доступа к системам хранения:

  • SAS (Server Attached Storage), сторедж, присоединенный к серверу;
  • NAS (Network Attached Storage), сторедж, подсоединенный к сети;
  • SAN (Storage Area Network), сеть хранения данных.

Рассмотрим топологии соответствующих сторедж-систем и их особенности.

SAS

Сторедж-система, присоединенная к серверу. Знакомый всем, традиционный способ подключения системы хранения данных к высокоскоростному интерфейсу в сервере, как правило, к параллельному SCSI интерфейсу.

Рисунок 1. Server Attached Storage

Использование отдельного корпуса для сторедж-системы в рамках топологии SAS не является обязательным.

Основное преимущество сторедж, подсоединенного к серверу, в сравнении с другими вариантами - низкая цена и высокое быстродействие из расчета один сторедж для одного сервера. Такая топология является самой оптимальной в случае использования одного сервера, через который организуется доступ к массиву данных. Но у нее остается ряд проблем, которые побудили проектировщиков искать другие варианты организации доступа к системам хранения данных.

К особенностям SAS можно отнести:

  • Доступ к данных зависит от ОС и файловой системы (в общем случае);
  • Сложность организации систем с высокой готовностью;
  • Низкая стоимость;
  • Высокое быстродействие в рамках одной ноды;
  • Уменьшение скорости отклика при загрузке сервера, который обслуживает сторедж.

NAS

Сторедж-система, подсоединенная к сети. Этот вариант организации доступа появился сравнительно недавно. Основным его преимуществом является удобство интеграции дополнительной системы хранения данных в существующие сети, но сам по себе он не привносит сколь-нибудь радикальных улучшений в архитектуру сторедж. Фактически NAS есть чистый файл-сервер, и сегодня можно встретить немало новых реализаций сторедж типа NAS на основе технологии тонкого сервера (Thin Server).


Рисунок 2. Network Attached Storage.

Особенности NAS:

  • Выделенный файл-сервер;
  • Доступ к данным не зависит от ОС и платформы;
  • Удобство администрирования;
  • Максимальная простота установки;
  • Низкая масштабируемость;
  • Конфликт с трафиком LAN/WAN.

Сторедж, построенный по технологии NAS, является идеальным вариантом для дешевых серверов с минимальным набором функций.

SAN

Сети хранения данных начали интенсивно развиваться и внедряться лишь с 1999 года. Основой SAN является отдельная от LAN/WAN сеть, которая служит для организации доступа к данным серверов и рабочих станций, занимающихся их прямой обработкой. Такая сеть создается на основе стандарта Fibre Channel, что дает сторедж-системам преимущества технологий LAN/WAN и возможности по организации стандартных платформ для систем с высокой готовностью и высокой интенсивностью запросов. Почти единственным недостатком SAN на сегодня остается относительно высокая цена компонент, но при этом общая стоимость владения для корпоративных систем, построенных с использованием технологии сетей хранения данных, является довольно низкой.


Рисунок 3. Storage Area Network.

К основным преимуществам SAN можно отнести практически все ее особенности:

  • Независимость топологии SAN от сторедж-систем и серверов;
  • Удобное централизованное управление;
  • Отсутствие конфликта с трафиком LAN/WAN;
  • Удобное резервирование данных без загрузки локальной сети и серверов;
  • Высокое быстродействие;
  • Высокая масштабируемость;
  • Высокая гибкость;
  • Высокая готовность и отказоустойчивость.

Следует также заметить, что технология эта еще довольно молодая и в ближайшее время она должна пережить немало усовершенствований в области стандартизации управления и способов взаимодействия SAN подсетей. Но можно надеяться, что это угрожает пионерам лишь дополнительными перспективами первенства.

FC как основа построения SAN

Подобно LAN, SAN может создаваться с использованием различных топологий и носителей. При построении SAN может использоваться как параллельный SCSI интерфейс, так и Fibre Channel или, скажем, SCI (Scalable Coherent Interface), но своей все возрастающей популярностью SAN обязана именно Fibre Channel. В проектировании этого интерфейса принимали участие специалисты со значительным опытом в разработке как канальных, так и сетевых интерфейсов, и им удалось объединить все важные положительные черты обеих технологий для того, чтобы получить что-то в самом деле революционно новое. Что именно?

Основные ключевые особенности канальных:

  • Низкие задержки
  • Высокие скорости
  • Высокая надежность
  • Топология точка-точка
  • Небольшие расстояния между нодами
  • Зависимость от платформы
и сетевых интерфейсов:
  • Многоточечные топологии
  • Большие расстояния
  • Высокая масштабируемость
  • Низкие скорости
  • Большие задержки
объединились в Fibre Channel:
  • Высокие скорости
  • Независимость от протокола (0-3 уровни)
  • Большие расстояния
  • Низкие задержки
  • Высокая надежность
  • Высокая масштабируемость
  • Многоточечные топологии

Традиционно сторедж интерфейсы (то, что находится между хостом и устройствами хранения информации) были преградой на пути к росту быстродействия и увеличению объема систем хранения данных. В то же время прикладные задачи требуют значительного прироста аппаратных мощностей, которые, в свою очередь, тянут за собой потребность в увеличении пропускной способности интерфейсов для связи со сторедж-системами. Именно проблемы построения гибкого высокоскоростного доступа к данным помогает решить Fibre Channel.

Стандарт Fibre Channel был окончательно определен за последние несколько лет (с 1997-го по 1999-й), на протяжении которых была проведена колоссальная работа по согласованию взаимодействия производителей различных компонент, и было сделано все необходимое, чтобы Fibre Channel превратился из чисто концептуальной технологии в реальную, которая получила поддержку в виде инсталляций в лабораториях и вычислительных центрах. В году 1997 были спроектированы первые коммерческие образцы краеугольных компонент для построения SAN на базе FC, таких как адаптеры, хабы, свичи и мосты. Таким образом, уже начиная с 1998-го года FC используется в коммерческих целях в деловой сфере, на производстве и в масштабных проектах реализации систем, критичных к отказам.

Fibre Channel - это открытый промышленный стандарт высокоскоростного последовательного интерфейса. Он обеспечивает подключение серверов и сторедж-систем на расстоянии до 10 км (при использовании стандартного оснащения) на скорости 100 MB/s (на выставке Cebit"2000 были представлены образцы продукции, которые используют новый стандарт Fibre Channel со скоростями 200 MB/s на одно кольцо, а в лабораторных условиях уже эксплуатируются реализации нового стандарта со скоростями 400 MB/s, что составляет 800 MB/s при использовании двойного кольца). (На момент публикации статьи ряд производителей уже начал отгружать сетевые карточки и свичи на FC 200 MB/s.) Fibre Channel одновременно поддерживает целый ряд стандартных протоколов (среди которых TCP/IP и SCSI-3) при использовании одного физического носителя, который потенциально упрощает построение сетевой инфраструктуры, к тому же это предоставляет возможности для уменьшения стоимости монтажа и обслуживания. Тем не менее использование отдельных подсетей для LAN/WAN и SAN имеет ряд преимуществ и является рекомендованным по умолчанию.

Одним из важнейших преимуществ Fibre Channel наряду со скоростными параметрами (которые, кстати, не всегда являются главными для пользователей SAN и могут быть реализованы с помощью других технологий) является возможность работы на больших расстояниях и гибкость топологии, которая пришла в новый стандарт из сетевых технологий. Таким образом, концепция построения топологии сети хранения данных базируется на тех же принципах, что и традиционные сети, как правило, на основе концентраторов и коммутаторов, которые помогают предотвратить падение скорости при возрастании количества нод и создают возможности удобной организации систем без единой точки отказов.

Для лучшего понимания преимуществ и особенностей этого интерфейса приведем сравнительную характеристику FC и Parallel SCSI в виде таблицы.

Таблица 1. Сравнение технологий Fibre Channel и параллельного SCSI

В стандарте Fibre Channel предполагается использование разнообразных топологий, таких как точка-точка (Point-to-Point), кольцо или FC-AL концентратор (Loop или Hub FC-AL), магистральный коммутатор (Fabric/Switch).

Топология point-to-point используется для подсоединения одиночной сторедж-системы к серверу.

Loop или Hub FC-AL - для подсоединения множественных сторедж устройств к нескольким хостам. При организации двойного кольца увеличивается быстродействие и отказоустойчивость системы.

Коммутаторы используются для обеспечения максимального быстродействия и отказоустойчивости для сложных, больших и разветвленных систем.

Благодаря сетевой гибкости в SAN заложена чрезвычайно важная особенность - удобная возможность построения отказоустойчивых систем.

Предлагая альтернативные решения для систем хранения данных и возможности по объединению нескольких сторедж для резервирования аппаратных средств, SAN помогает обеспечивать защиту аппаратно-программных комплексов от аппаратных сбоев. Для демонстрации приведем пример создания двухнодовой системы без точек отказов.


Рисунок 4. No Single Point of Failure.

Построение трех- и более нодовых систем осуществляется простым добавлением в FC сеть дополнительных серверов и подключением их к обоим концентраторам/ коммутаторам).

При использовании FC построение устойчивых к сбоям (disaster tolerant) систем становится прозрачным. Сетевые каналы и для сторедж, и для локальной сети можно проложить на основе оптоволокна (до 10 км и больше с использованием усилителей сигнала) как физического носителя для FC, при этом используется стандартная аппаратура, которая дает возможность значительно уменьшить стоимость подобных систем.

Благодаря возможности доступа ко всем компонентам SAN из любой ее точки мы получаем чрезвычайно гибко управляемую сеть данных. При этом следует заметить, что в SAN обеспечивается прозрачность (возможность видеть) всех компонентов вплоть до дисков в сторедж-системах. Эта особенность подтолкнула производителей компонентов к использованию своего значительного опыта в построении систем управления для LAN/WAN с тем, чтобы заложить широкие возможности по мониторингу и управлению во все компоненты SAN. Эти возможности включают в себя мониторинг и управление отдельных нод, сторедж компонентов, корпусов, сетевых устройств и сетевых подструктур.

В системе управления и мониторинга SAN используются такие открытые стандарты, как:

  • SCSI command set
  • SCSI Enclosure Services (SES)
  • SCSI Self Monitoring Analysis and Reporting Technology (S.M.A.R.T.)
  • SAF-TE (SCSI Accessed Fault-Tolerant Enclosures)
  • Simple Network Management Protocol (SNMP)
  • Web-Based Enterprise Management (WBEM)

Системы, построенные с использованием технологий SAN, не только обеспечивают администратору возможность следить за развитием и состоянием сторедж ресурсов, но и открывают возможности по мониторингу и контролю трафика. Благодаря таким ресурсам программные средства управления SAN реализуют наиболее эффективные схемы планирования объема сторедж и балансирование нагрузки на компоненты системы.

Сети хранения данных прекрасно интегрируются в существующие информационные инфраструктуры. Их внедрение не требует каких-либо изменений в уже существующих сетях LAN и WAN, а лишь расширяет возможности существующих систем, избавляя их от задач, ориентированных на передачу больших объемов данных. Причем при интеграции и администрировании SAN очень важным является то, что ключевые элементы сети поддерживают горячую замену и установку, с возможностями динамического конфигурирования. Так что добавить тот или другой компонент или осуществить его замену администратор может, не выключая систему. И весь этот процесс интеграции может быть визуально отображен в графической системе управления SAN.

Рассмотрев вышеперечисленные преимущества, можно выделить ряд ключевых моментов, которые непосредственно влияют на одно из основных преимуществ Storage Area Network - общую стоимость владения (Total Cost Ownership).

Невероятные возможности масштабирования позволяют предприятию, которое использует SAN, вкладывать деньги в серверы и сторедж по мере необходимости. А также сохранить свои вложения в уже инсталлированную технику при смене технологических поколений. Каждый новый сервер будет иметь возможность высокоскоростного доступа к сторедж и каждый дополнительный гигабайт сторедж будет доступен всем серверам подсети по команде администратора.

Прекрасные возможности по построению отказоустойчивых систем могут приносить прямую коммерческую выгоду от минимизации простоев и спасать систему в случае возникновения стихийного бедствия или каких-нибудь других катаклизмов.

Управляемость компонентов и прозрачность системы предоставляют возможность осуществлять централизованное администрирование всех сторедж ресурсов, а это, в свою очередь, значительно уменьшает затраты на их поддержку, стоимость которой, как правило, составляет более 50% от стоимости оснащения.

Влияние SAN на прикладные задачи

Для того чтобы нашим читателям стало понятней, насколько практически полезны технологии, которые рассматриваются в этой статье, приведем несколько примеров прикладных задач, которые без использования сетей хранения данных решались бы неэффективно, требовали бы колоссальных финансовых вложений или же вообще не решались бы стандартными методами.

Резервирование и восстановление данных (Data Backup and Recovery)

Используя традиционный SCSI интерфейс, пользователь при построении систем резервирования и восстановления данных сталкивается с рядом сложных проблем, которые можно очень просто решить, используя технологии SAN и FC.

Таким образом, использование сетей хранения данных выводит решение задачи резервирования и восстановления на новый уровень и предоставляет возможность осуществлять бэкап в несколько раз быстрее, чем раньше, без загрузки локальной сети и серверов работой по резервированию данных.

Кластеризация серверов (Server Clustering)

Одной из типичных задач, для которых эффективно используется SAN, является кластеризация серверов. Поскольку один из ключевых моментов в организации высокоскоростных кластерных систем, которые работают с данными - это доступ к сторедж, то с появлением SAN построение многонодовых кластеров на аппаратном уровне решается простым добавлением сервера с подключением к SAN (это можно сделать, даже не выключая системы, поскольку свичи FC поддерживают hot-plug). При использовании параллельного SCSI интерфейса, возможности по подсоединению и масштабируемость которого значительно хуже, чем у FC, кластеры, ориентированные на обработку данных, было бы тяжело сделать с количеством нод больше двух. Коммутаторы параллельного SCSI - весьма сложные и дорогие устройства, а для FC это стандартный компонент. Для создания кластера, который не будет иметь ни единой точки отказов, достаточно интегрировать в систему зеркальную SAN (технология DUAL Path).

В рамках кластеризации одна из технологий RAIS (Redundant Array of Inexpensive Servers) кажется особенно привлекательной для построения мощных масштабируемых систем интернет-коммерции и других видов задач с повышенными требованиями к мощности. По словам Alistair A. Croll, сооснователя Networkshop Inc, использование RAIS оказывается достаточно эффективным:«Например, за $12000-15000 вы можете купить около шести недорогих одно-двухпроцессорных (Pentium III) Linux/Apache серверов. Мощность, масштабируемость и отказоустойчивость такой системы будет значительно выше, чем, например, у одного четырехпроцессорного сервера на базе процессоров Xeon, а стоимость одинаковая».

Одновременный доступ к видео и распределение данных (Concurrent video streaming, data sharing)

Вообразите себе задачу, когда вам нужно на нескольких (скажем, >5) станциях редактировать видео или просто работать над данными огромного объема. Передача файла размером 100GB по локальной сети займет у вас несколько минут, а общая работа над ним будет очень сложной задачей. При использовании SAN каждая рабочая станция и сервер сети получают доступ к файлу на скорости, эквивалентной локальному высокоскоростному диску. Если вам нужны еще одна станция/сервер для обработки данных, вы сможете ее прибавить к SAN, не выключая сети, простым подсоединением станции к SAN коммутатору и предоставлением ей прав доступа к сторедж. Если же вас перестанет удовлетворять быстродействие подсистемы данных, вы сможете просто прибавить еще один сторедж и с использованием технологии распределения данных (например, RAID 0) получить вдвое большее быстродействие.

Основные компоненты SAN

Среда

Для соединения компонентов в рамках стандарта Fibre Channel используют медные и оптические кабели. Оба типа кабелей могут использоваться одновременно при построении SAN. Конверсия интерфейсов осуществляется с помощью GBIC (Gigabit Interface Converter) и MIA (Media Interface Adapter). Оба типа кабеля сегодня обеспечивают одинаковую скорость передачи данных. Медный кабель используется для коротких расстояний (до 30 метров), оптический - как для коротких, так и для расстояний до 10 км и больше. Используют многомодовый и одномодовый оптические кабели. Многомодовый (Multimode) кабель используется для коротких расстояний (до 2 км). Внутренний диаметр оптоволокна мультимодового кабеля составляет 62,5 или 50 микрон. Для обеспечения скорости передачи 100 МБ/с (200 МБ/с в дуплексе) при использовании многомодового оптоволокна длина кабеля не должна превышать 200 метров. Одномодовый кабель используется для больших расстояний. Длина такого кабеля ограничена мощностью лазера, который используется в передатчике сигнала. Внутренний диаметр оптоволокна одномодового кабеля составляет 7 или 9 микрон, он обеспечивает прохождение одиночного луча.

Коннекторы, адаптеры

Для подсоединения медных кабелей используются коннекторы типа DB-9 или HSSD. HSSD считается более надежным, но DB-9 используется так же часто, потому что он более простой и дешевый. Стандартным (наиболее распространенным) коннектором для оптических кабелей является SC коннектор, он обеспечивает качественное, четкое соединение. Для обычного подключения используются многомодовые SC коннекторы, а для отдаленного - одномодовые. В многопортовых адаптерах используются микроконнекторы.

Наиболее распространены адаптеры для FC под шину PCI 64 bit. Также много FC адаптеров вырабатывается под шину S-BUS, для специализированного использования выпускаются адаптеры под MCA, EISA, GIO, HIO, PMC, Compact PCI. Самые популярные - однопортовые, встречаются двух- и четырехпортовые карточки. На PCI адаптерах, как правило, используют DB-9, HSSD, SC коннекторы. Также часто встречаются GBIC-based адаптеры, которые поставляются как с модулями GBIC, так и без них. Fibre Channel адаптеры отличаются классами, которые они поддерживают, и разнообразными особенностями. Для понимания отличий приведем сравнительную таблицу адаптеров производства фирмы QLogic.

Fibre Channel Host Bus Adapter Family Chart
SANblade 64 Bit FCAL Publ. Pvt Loop FL Port Class 3 F Port Class 2 Point to Point IP/ SCSI Full Duplex FC Tape PCI 1.0 Hot Plug Spec Solaris Dynamic Reconfig VIВ 2Gb
2100 Series 33 & 66MHz PCI X X X
2200 Series 33 & 66MHz PCI X X X X X X X X X
33MHz PCI X X X X X X X X X X
25 MHZ Sbus X X X X X X X X X X
2300 Series 66 MHZ PCI/ 133MHZ PCI-X X X X X X X X X X X X

Концентраторы

Fibre Channel HUBs (концентраторы) используются для подключения нод к FC кольцу (FC Loop) и имеют структуру, похожую на Token Ring концентраторы. Поскольку разрыв кольца может привести к прекращению функционирования сети, в современных FC концентраторах используются порты обхода кольца (PBC-port bypass circuit), которые разрешают автоматически открывать/закрывать кольцо (подключать/отключать системы, присоединенные к концентратору). Обычно FC HUBs поддерживают до 10 подключений и могут стекироваться до 127 портов на кольцо. Все устройства, подключенные к HUB, получают общую полосу пропускания, которую они могут разделять между собой.

Коммутаторы

Fibre Channel Switches (коммутаторы) имеют те же функции, что и привычные читателю LAN коммутаторы. Они обеспечивают полноскоростное неблокированное подключение между нодами. Любая нода, подключенная к FC коммутатору, получает полную (с возможностями масштабирования) полосу пропускания. При увеличении количества портов коммутированной сети ее пропускная способность увеличивается. Коммутаторы могут использоваться вместе с концентраторами (которые используют для участков, не требующих выделенной полосы пропуска для каждой ноды) для достижения оптимального соотношения цена/производительность. Благодаря каскадированию свичи потенциально могут использоваться для создания FC сетей с количеством адресов 2 24 (свыше 16 миллионов).

Мосты

FC Bridges (мосты или мультиплексоры) используются для подключения устройств с параллельным SCSI к сети на базе FC. Они обеспечивают трансляцию SCSI пакетов между Fibre Channel и Parallel SCSI устройствами, примерами которых могут служить Solid State Disk (SSD) или библиотеки на магнитных лентах. Следует заметить, что в последнее время практически все устройства, которые могут быть утилизированы в рамках SAN, производители начинают выпускать с вмонтированным FC интерфейсом для прямого их подключения к сетям хранения данных.

Серверы и Сторедж

Несмотря на то что серверы и сторедж - далеко не последние по важности компоненты SAN, мы на их описании останавливаться не будем, поскольку уверены, что с ними хорошо знакомы все наши читатели.

В конце хочется добавить, что эта статья - лишь первый шаг к сетям хранения данных. Для полного понимания темы читателю следует уделить немало внимания особенностям реализации компонент производителями SAN и программным средствам управления, поскольку без них Storage Area Network - это всего лишь набор элементов для коммутации сторедж-систем, которые не принесут вам полноты преимуществ от реализации сети хранения данных.

Заключение

Сегодня Storage Area Network является довольно новой технологией, которая в скором времени может стать массовой в кругу корпоративных заказчиков. В Европе и США предприятия, которые имеют достаточно большой парк инсталлированных сторедж-систем, уже начинают переходить на сети хранения данных для организации сторедж с наилучшим показателем общей стоимости владения.

По прогнозам аналитиков, в 2005 году значительное количество серверов среднего и верхнего уровня будут поставляться с предварительно установленным интерфейсом Fibre Channel (такую тенденцию можно заметить уже сегодня), и лишь для внутреннего подключения дисков в серверах будет использоваться параллельный SCSI интерфейс. Уже сегодня при построении сторедж-систем и приобретении серверов среднего и верхнего уровня следует обратить внимание на эту перспективную технологию, тем более, что уже сегодня она дает возможность реализовать ряд задач куда дешевле, чем с помощью специализированных решений. Кроме того, вкладывая в технологию SAN сегодня, вы не потеряете свои вложения завтра, поскольку особенности Fibre Channel создают прекрасные возможности для использования в будущем вложенных сегодня инвестиций.

P.S.

Предыдущая версия статьи была написана в июне 2000 года, но в связи с отсутствием массового интереса к технологии сетей хранения данных публикация была отложена на будущее. Это будущее настало сегодня, и я надеюсь, что данная статья побудит читателя осознать необходимость перехода на технологию сетей хранения данных, как передовую технологию построения сторедж-систем и организации доступа к данным.



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows