SSD: подвиды и перспективы Страница 1 из 3





Все помнят, как появились первые действительно массовые SSD продукты. Энтузиазм, рост показателей, красивые десятки тысяч IOPS производительности. Практически идиллия.

Естественно, что для серверного (одиночные компьютеры мы не не рассматриваем) рынка это стало огромным шагом вперед — ведь магнитные носители давно стали узким местом для построения высокопроизводительного решения. Нормой считалось несколько шкафов с дисками, которые в сумме осиливали две-три тысячи IOPS, а тут такая возможность увеличить производительность в сотню и более раз с одного накопителя (по сравнению с SAS 15K).

Оптимизма было море, но в реальности оказалось все не так гладко.



Тут и проблемы совместимости, и проблемы ресурса, когда в сервер ставили все подряд из самых дешевых линеек, и проблемы деградации производительности — до сих пор поднимаются вопросы поддержки TRIM в RAID контроллерах.

Развитие SSD технологий шло поэтапно. Сначала все работали над скоростью линейных операций, чтобы достичь предела интерфейсов. С SATA II это случилось почти сразу, на покорение SATA III ушло некоторое время. Следующим этапом стало наращивание производительности операций со случайным доступом, тут тоже удалось добиться приличного роста.

Следующим пунктом, на который обратили внимание, была стабильность производительности:




Взято из обзора Anandtech

В среднем оно, конечно, много, но скачки от 30К до значений в пару десятков iops — это сильно, шпиндель выдает свои показатели стабильно.

Первым, кто громко об этом заявил, был Intel с его линейкой DC S3700.



Взято из обзора Anandtech

Если приблизить правую часть графика, то разброс будет в пределах 20%. Почему это важно?
  1. Поведение диска в RAID массиве гораздо более предсказуемо, контроллеру намного проще работать, когда все участники массива обладают примерно одинаковой производительностью. Мало кому придет в голову строить массивы из 7.2К и 15К дисков одновременно, а массив из SSD с разбросом мгновенной производительности в сотни раз еще хуже.
  2. Приложения, которым необходимо стабильно и быстро получать или писать данные случайным образом, будут работать более прогнозируемо.

Достаточно давно появились и SAS накопители, на SLC (Single Level Cell) памяти с космической стоимостью и практически неограниченным ресурсом. Естественно, они были разработаны для работе в составе СХД — там двухпортовый доступ обязательное условие для накопителя. Со временем появились и более доступные продукты на eMLC памяти. Ресурс, конечно, упал, но все равно остается весьма внушительным благодаря большому резервному объему недоступной для пользователя памяти.




Пример современного SAS SSD диска

Так как изначально они разрабатывались для работы в корпоративных системах, то стабильность производительности была на высоте сразу. Поскольку подходы жестких дисков к тестам производительности SSD мало применимы, то индустриальным консорциумом Storage Networking Industry Association (SNIA) была разработана специальная методика SNIA Solid State Storage Performance Test. Главная особенность методики — диск сначала «подготавливается», цель подготовки — забить всю доступную память, ведь особо умный контроллер пишет данные не только на выделенную емкость диска, он размазывает данные по всей доступной памяти. Для того, чтобы получить результат диска в реальном окружении после длительной непрерывной работы в синтетическом тесте — его надо лишить возможности доступа к «свежей» памяти, где никогда не было данных. После этого начинается реальное тестирование:

  • 1202
  • 01/04/2014


Поделись



Подпишись



Смотрите также