RAID

редактировать

RAID («Избыточный массив недорогих дисков » или «Избыточный массив независимых дисков ") - это технология виртуализации данных хранилища, которая объединяет несколько компонентов физического дискового накопителя в один или несколько логических блоков в целях избыточности данных, производительности улучшение, или и то, и другое. Это отличалось от предыдущей концепции высоконадежных дисковых накопителей для мэйнфреймов, именуемой «один большой дорогой диск» (SLED).

Данные распределяются по дискам одним из нескольких способов, называемых уровнями RAID., в зависимости от требуемого уровня избыточности и производительности. Различные схемы или схемы распределения данных называются словом «RAID», за которым следует число, например RAID 0 или RAID 1. Каждая схема или уровень RAID обеспечивает различный баланс между ключевыми целями: надежность, доступность, производительность и емкость. Уровни RAID выше, чем RAID 0, обеспечивают защиту от неисправимых ошибок чтения сектора , а также от отказов целых физических дисков.

Содержание

  • 1 История
  • 2 Обзор
  • 3 Стандартные уровни
  • 4 Вложенный (гибридный) RAID
  • 5 Нестандартные уровни
  • 6 Реализации
    • 6.1 Аппаратное обеспечение
      • 6.1.1 Конфигурация аппаратного RAID
    • 6.2 На основе программного обеспечения
    • 6.3 На основе микропрограмм и драйверов
  • 7 Целостность
  • 8 Слабые стороны
    • 8.1 Коррелированные сбои
    • 8.2 Неустранимые ошибки чтения во время rebuild
    • 8.3 Увеличение времени восстановления и вероятности отказа
    • 8.4 Атомарность
    • 8.5 Надежность кэша записи
  • 9 См. также
  • 10 Ссылки
  • 11 Внешние ссылки

История

Термин «RAID» был изобретен Дэвидом Паттерсоном, Гартом А. Гибсоном и Рэнди Кацем в Калифорнийском университете в Беркли в 1987 году. В своей июньской статье 1988 года «Причина использования избыточных массивов недорогих дисков (RAID)», представленной на конференции SIGMOD, они утверждали, что наиболее производительный диск мэйнфрейма диски того времени могли быть побиты по производительности массивом недорогих дисководов t Он был разработан для растущего рынка персональных компьютеров. Хотя количество отказов будет возрастать пропорционально количеству дисков, при настройке на резервирование надежность массива может намного превзойти надежность любого большого отдельного диска.

Хотя эта терминология еще не используется, технологии пяти Уровни RAID, названные в документе от июня 1988 г., использовались в различных продуктах до публикации статьи, включая следующие:

  • Зеркалирование (RAID 1) было хорошо зарекомендовало себя в 1970-х годах, включая, например, тандем NonStop Systems.
  • В 1977 году Норман Кен Оучи из IBM подал патент, раскрывающий то, что впоследствии было названо RAID 4.
  • Примерно в 1983 году DEC началась Подсистема доставки зеркально копировала диски RA8X (теперь известные как RAID 1) как часть своей подсистемы HSC50.
  • В 1986 году Кларк и др. в IBM подали патент, раскрывающий то, что впоследствии было названо RAID 5.
  • Примерно в 1988 году Thinking Machines DataVault использовали коды исправления ошибок (теперь известные как RAID 2) в массиве дисководов. Аналогичный подход использовался в начале 1960-х годов на IBM 353.

Промышленные производители позже переопределили аббревиатуру RAID, чтобы обозначить «избыточный массив независимых дисков».

Обзор

Многие уровни RAID используют схему защиты от ошибок, называемую «четность », широко используемый метод в информационных технологиях для обеспечения отказоустойчивости в заданном наборе данных. Большинство из них используют простой XOR, но RAID 6 использует две отдельные четности, основанные соответственно на сложении и умножении в конкретном поле Галуа или Исправление ошибок Рида – Соломона.

RAID также может Обеспечьте безопасность данных с помощью твердотельных накопителей (SSD) без затрат на систему, полностью состоящую из SSD. Например, быстрый SSD можно отзеркалить с механическим приводом. Чтобы эта конфигурация обеспечивала значительное преимущество в скорости, необходим соответствующий контроллер, который использует быстрый SSD для всех операций чтения. Adaptec называет это «гибридным RAID».

Стандартные уровни

Серверы хранения с 24 жесткими дисками каждый и встроенными аппаратными контроллерами RAID, поддерживающими различные уровни RAID

Первоначально было пять стандартных уровней RAID, но появилось множество вариаций, включая несколько вложенных уровней и множество нестандартных уровней (в основном проприетарных ). Уровни RAID и связанные с ними форматы данных стандартизированы Промышленной ассоциацией сетей хранения данных (SNIA) в стандарте Common RAID Disk Drive Format (DDF):

RAID 0 состоит из чередования, но нет зеркалирования или четности. По сравнению с составным томом емкость тома RAID 0 такая же; это сумма емкостей дисков в наборе. Но поскольку при чередовании содержимое каждого файла распределяется между всеми дисками в наборе, отказ любого диска приводит к потере всего тома RAID 0 и всех файлов. Для сравнения, составной том сохраняет файлы на исправных дисках. Преимущество RAID 0 заключается в том, что пропускная способность операций чтения и записи для любого файла умножается на количество дисков, поскольку, в отличие от составных томов, чтение и запись выполняются одновременно. Цена заключается в повышенной уязвимости к сбоям дисков - поскольку сбой любого диска в настройке RAID 0 приводит к потере всего тома, средняя частота сбоев тома возрастает с увеличением количества подключенных дисков.

RAID 1 состоит из зеркалирования данных без контроля четности или чередования. Данные записываются одинаково на два или более дисков, тем самым создавая «зеркальный набор» дисков. Таким образом, любой запрос чтения может быть обработан любым диском в наборе. Если запрос транслируется на каждый диск в наборе, он может обслуживаться диском, который первым обращается к данным (в зависимости от его времени поиска и задержки вращения ), что улучшает производительность. Стабильная пропускная способность чтения, если контроллер или программное обеспечение оптимизированы для этого, приближается к сумме пропускной способности каждого диска в наборе, как и для RAID 0. Фактическая пропускная способность чтения большинства реализаций RAID 1 ниже, чем у самого быстрого диска. Пропускная способность записи всегда ниже, потому что каждый диск должен быть обновлен, а самый медленный диск ограничивает производительность записи. Массив продолжает работать, пока работает хотя бы один диск.

RAID 2 состоит из чередования битов с выделенным кодом Хэмминга четностью. Все вращение шпинделя диска синхронизировано, а данные чередуются, так что каждый последовательный бит находится на другом диске. Четность кода Хэмминга вычисляется по соответствующим битам и сохраняется по крайней мере на одном диске четности. Этот уровень имеет только историческое значение; хотя он использовался на некоторых ранних машинах (например, Thinking Machines CM-2), по состоянию на 2014 год он не используется ни в одной коммерчески доступной системе.

RAID 3 состоит из байтов -уровневое чередование с выделенной четностью. Все вращение шпинделя диска синхронизируется, а данные распределяются таким образом, что каждый последовательный байт находится на другом диске. Четность вычисляется по соответствующим байтам и сохраняется на выделенном диске четности. Хотя реализации существуют, на практике RAID 3 обычно не используется.

RAID 4 состоит из чередования на уровне блоков с выделенной четностью. Этот уровень ранее использовался NetApp, но теперь он в значительной степени заменен собственной реализацией RAID 4 с двумя дисками четности, называемой RAID-DP. Основным преимуществом RAID 4 перед RAID 2 и 3 является параллелизм ввода-вывода: в RAID 2 и 3 для одной операции чтения ввода-вывода требуется чтение всей группы дисков с данными, а в RAID 4 - одна операция чтения ввода-вывода. не должны распространяться на все диски с данными. В результате большее количество операций ввода-вывода может выполняться параллельно, улучшая производительность небольших передач.

RAID 5 состоит из чередования на уровне блоков с распределенной четностью. В отличие от RAID 4, информация о четности распределяется между дисками, поэтому для работы требуются все диски, кроме одного. При выходе из строя одного диска последующие чтения могут быть рассчитаны на основе распределенной четности, так что данные не будут потеряны. Для RAID 5 требуется как минимум три диска. Как и все концепции единой четности, большие реализации RAID 5 подвержены сбоям системы из-за тенденций, касающихся времени восстановления массива и вероятности отказа диска во время восстановления (см. Раздел «Увеличение времени восстановления и вероятности отказа » ниже). Восстановление массива требует чтения всех данных со всех дисков, что дает шанс на отказ второго диска и потерю всего массива.

RAID 6 состоит из чередования на уровне блоков с двойной распределенной четностью. Двойная четность обеспечивает отказоустойчивость до двух отказавших дисков. Это делает большие группы RAID более практичными, особенно для систем с высокой доступностью, так как восстановление дисков большой емкости занимает больше времени. Для RAID 6 требуется как минимум четыре диска. Как и в случае с RAID 5, отказ одного диска приводит к снижению производительности всего массива до тех пор, пока неисправный диск не будет заменен. С массивом RAID 6, использующим диски из различных источников и производителей, можно смягчить большинство проблем, связанных с RAID 5. Чем больше емкость диска и чем больше размер массива, тем важнее выбрать вместо него RAID 6. RAID 5. RAID 10 также сводит к минимуму эти проблемы.

Вложенный (гибридный) RAID

В том, что первоначально называлось гибридным RAID, многие контроллеры хранилища допускают вложение уровней RAID. Элементами RAID могут быть как отдельные диски, так и сами массивы. Массивы редко бывают вложенными более чем на один уровень.

Последний массив известен как верхний массив. Когда верхним массивом является RAID 0 (например, RAID 1 + 0 и RAID 5 + 0), большинство поставщиков опускают "+" (что дает RAID 10 и RAID 50 соответственно).

  • RAID 0 + 1: создает две полосы и отражает их. Если происходит сбой одного диска, это означает, что одно из зеркал отказало, в этот момент оно эффективно работает как RAID 0 без избыточности. Во время перестройки возникает значительно более высокий риск, чем при восстановлении RAID 1 + 0, поскольку должны быть прочитаны все данные со всех дисков в оставшейся полосе, а не только с одного диска, что увеличивает вероятность неисправимой ошибки чтения (URE) и значительно увеличивает в окне восстановления.
  • RAID 1 + 0: (см.: RAID 10 ) создает чередующийся набор из серии зеркальных дисков. Массив может выдерживать множественные потери дисков до тех пор, пока ни одно из зеркал не теряет все свои диски.
  • JBOD RAID N + N: С JBOD (просто связкой дисков) можно объединить диски, но также тома, такие как наборы RAID. При увеличении емкости диска задержка записи и время восстановления резко увеличиваются (особенно, как описано выше, с RAID 5 и RAID 6). Разделив более крупный набор RAID N на более мелкие подмножества и объединив их с помощью линейного JBOD, время записи и восстановления будет сокращено. Если аппаратный RAID-контроллер не поддерживает вложение линейного JBOD с RAID N, то линейный JBOD может быть достигнут с помощью программного RAID уровня ОС в сочетании с отдельными томами подмножества RAID N, созданными в одном или нескольких аппаратных RAID-контроллерах. Помимо резкого увеличения скорости, это также дает существенное преимущество: возможность запускать линейный JBOD с небольшим набором дисков и иметь возможность расширять общий набор дисками разного размера позже (со временем диски большего размера). размер становится доступным на рынке). Есть еще одно преимущество в виде аварийного восстановления (если произойдет сбой поднабора RAID N, данные на других подмножествах RAID N не будут потеряны, что сокращает время восстановления).

Нестандартные уровни

Возможны многие конфигурации, отличные от базовых пронумерованных уровней RAID, и многие компании, организации и группы создали свои собственные нестандартные конфигурации, во многих случаях предназначенные для удовлетворения особых потребностей небольшой нишевой группы. Такие конфигурации включают в себя следующее:

  • Linux MD RAID 10 предоставляет общий драйвер RAID, который в своей «близкой» компоновке по умолчанию соответствует стандартному RAID 1 с двумя дисками и стандартному RAID 1 + 0 с четырьмя дисками; однако он может включать любое количество накопителей, включая нечетные. Благодаря своей «удаленной» компоновке MD RAID 10 может работать как с чередованием, так и с зеркалированием, даже с двумя дисками в компоновке f2; это запускает зеркальное отображение с чередованием чтения, обеспечивая производительность чтения RAID 0. Обычный RAID 1, как предусмотрено программным RAID Linux, не чередует чтение, но может выполнять чтение параллельно.
  • Hadoop имеет систему RAID, которая генерирует файл четности путем преобразования полосы блоков в один файл HDFS.
  • BeeGFS, параллельная файловая система, имеет внутреннее чередование (сравнимо с файловым RAID0) и репликацию (сравнимо с файловым RAID10) для агрегирования пропускной способности и емкости нескольких серверов и обычно основывается на базовом RAID, чтобы сделать сбои дисков прозрачными.
  • Декластеризованный RAID разбрасывает двойные (или более) копии данные на всех дисках (возможно, сотнях) в подсистеме хранения, сохраняя при этом достаточно свободной емкости, чтобы несколько дисков могли выйти из строя. Рассеяние основано на алгоритмах, создающих видимость произвола. Когда один или несколько дисков выходят из строя, отсутствующие копии восстанавливаются до этой резервной емкости, опять же произвольно. Поскольку восстановление выполняется со всех оставшихся дисков, он работает намного быстрее, чем с традиционным RAID, что снижает общее влияние на клиентов системы хранения.

Реализации

Распределение данных по нескольким дискам может управляться либо с помощью специализированного компьютерного оборудования, либо с помощью программного обеспечения. Программное решение может быть частью операционной системы, частью встроенного программного обеспечения и драйверов, поставляемых со стандартным контроллером накопителя (так называемый «программный RAID с аппаратной поддержкой»), или оно может полностью находиться внутри аппаратного RAID-контроллера.

Аппаратное обеспечение

Конфигурация аппаратного RAID

Аппаратные RAID-контроллеры можно настроить с помощью карты BIOS до операционной системы загружается, и после загрузки операционной системы у производителя каждого контроллера доступны проприетарные утилиты настройки. В отличие от контроллеров сетевого интерфейса для Ethernet, которые обычно можно настроить и обслужить полностью с помощью общих парадигм операционной системы, таких как ifconfig в Unix, без необходимости использования каких-либо сторонних инструментов, каждый производитель каждого RAID-контроллера обычно предоставляет свой собственный программный инструментарий для каждой операционной системы, которую он считает поддерживаемой, обеспечивая привязку к поставщику и внося свой вклад в проблемы с надежностью.

Например, в FreeBSD для доступа к конфигурации RAID-контроллеров Adaptec пользователям необходимо включить уровень совместимости Linux, и использовать инструменты Linux от Adaptec, что потенциально может поставить под угрозу стабильность, надежность и безопасность их настройки, особенно с точки зрения долгосрочного.

Некоторые другие операционные системы реализовали свои собственные общие рамки для взаимодействия с любым RAID-контроллером и инструменты для мониторинга RAI Состояние тома D, а также облегчение идентификации диска посредством мигания светодиода, управления аварийными сигналами и обозначения диска горячего резервирования изнутри операционной системы без необходимости перезагружать BIOS карты. Например, это был подход, использованный OpenBSD в 2005 году с его псевдоустройством bio (4) и утилитой bioctl, которые обеспечивают состояние громкости и позволяют светодиоды / тревогу / горячую защиту контроль, а также датчики (в том числе датчик движения ) для контроля исправности; этот подход впоследствии был принят и расширен NetBSD в 2007 году.

Программные

Программные реализации RAID обеспечиваются многими современными операционными системами. Программный RAID может быть реализован как:

  • Уровень, который абстрагирует несколько устройств, тем самым обеспечивая одно виртуальное устройство (например, ядро ​​Linux md и SoftRAID OpenBSD)
  • более общий логический менеджер томов (входит в состав большинства операционных систем серверного класса, таких как Veritas или LVM )
  • Компонент файловая система (например, ZFS, Spectrum Scale или Btrfs )
  • Уровень, который находится над любой файловой системой и обеспечивает защиту данных пользователя (например, RAID- F)

Некоторые расширенные файловые системы предназначены для организации данных на нескольких устройствах хранения напрямую, без необходимости использования стороннего диспетчера логических томов:

  • ZFS поддерживает эквиваленты RAID 0, RAID 1, RAID 5 (RAID-Z1) с одинарной четностью, RAID 6 (RAID-Z2) с двойной четностью и версия с тройной четностью (RAID-Z3), также называемая RAID 7. Как всегда с полосами над vdevs верхнего уровня, он поддерживает эквиваленты 1 + 0, 5 + 0 и 6 + 0 вложенных уровней RAID (а также чередующиеся наборы с тройной четностью), но не другие вложенные комбинации. ZFS - это собственная файловая система для Solaris и illumos, а также доступна для FreeBSD и Linux. Реализации ZFS с открытым исходным кодом активно разрабатываются в рамках зонтичного проекта OpenZFS.
  • Spectrum Scale, изначально разработанный IBM для потоковой передачи мультимедиа и масштабируемой аналитики, поддерживает защиту декластеризованного RAID схемы до n + 3. Особенностью является приоритет динамического восстановления, который работает в фоновом режиме с малым воздействием, пока блок данных не достигнет избыточности n + 0, и в этом случае этот блок быстро восстанавливается как минимум до n + 1. Кроме того, Spectrum Scale поддерживает RAID 1.
  • Btrfs поддерживает RAID 0, RAID 1 и RAID 10 (RAID 5 и 6 находятся в стадии разработки).
  • XFS изначально был разработан для обеспечения интегрированный диспетчер томов, который поддерживает объединение, зеркалирование и чередование нескольких физических устройств хранения. Однако в реализации XFS в ядре Linux отсутствует интегрированный диспетчер томов.

Многие операционные системы предоставляют реализации RAID, включая следующие:

  • Операционная система Hewlett-Packard OpenVMS поддерживает RAID 1. Зеркальные диски, называемые «теневым набором», могут находиться в разных местах для помощи в аварийном восстановлении.
  • Apple macOS и macOS Server поддерживают RAID. 0, RAID 1 и RAID 1 + 0.
  • FreeBSD поддерживает RAID 0, RAID 1, RAID 3 и RAID 5, а также все вложения через модули GEOM и компакт-диск.
  • md Linux поддерживает RAID 0, RAID 1, RAID 4, RAID 5, RAID 6 и все вложения. Также поддерживаются определенные операции изменения формы / размера / расширения.
  • Microsoft Windows поддерживает RAID 0, RAID 1 и RAID 5 с использованием различных программных реализаций. Диспетчер логических дисков, представленный в Windows 2000, позволяет создавать тома RAID 0, RAID 1 и RAID 5 с использованием динамических дисков, но это было ограничено только профессиональной и серверной версиями Windows до выпуска Windows 8. Windows XP можно изменить, чтобы разблокировать поддержку RAID 0, 1 и 5. Windows 8 и Windows Server 2012 представила RAID-подобную функцию, известную как Storage Spaces, которая также позволяет пользователям указывать зеркальное отображение, четность или отсутствие избыточности для каждой папки основание. Эти параметры аналогичны RAID 1 и RAID 5, но реализованы на более высоком уровне абстракции.
  • NetBSD поддерживает RAID 0, 1, 4 и 5 посредством своей программной реализации под названием RAIDframe.
  • OpenBSD поддерживает RAID 0, 1 и 5 посредством своей программной реализации под названием softraid.

Если загрузочный диск выходит из строя, система должна быть достаточно сложной, чтобы иметь возможность загружаться с оставшегося диска или дисков. Например, рассмотрим компьютер, диск которого настроен как RAID 1 (зеркальные диски); если первый диск в массиве выходит из строя, то загрузчик первой ступени может оказаться недостаточно сложным, чтобы попытаться загрузить загрузчик второй ступени со второго диска в качестве запасного варианта. Загрузчик второго уровня для FreeBSD может загружать ядро ​​ из такого массива.

Контроллер

A SATA 3.0 на основе микропрограмм и драйверов, обеспечивающий функциональность RAID через проприетарную прошивку и драйверы

Программно реализованный RAID не всегда совместим с процессом загрузки системы и, как правило, непрактичен для настольных версий Windows. Однако аппаратные RAID-контроллеры дорогие и проприетарные. Чтобы восполнить этот пробел, были представлены недорогие «RAID-контроллеры», которые не содержат выделенного чипа RAID-контроллера, а содержат просто стандартный чип контроллера накопителя с проприетарными прошивками и драйверами. Во время ранней загрузки RAID реализуется микропрограммой, и, как только операционная система будет полностью загружена, драйверы берут на себя управление. Следовательно, такие контроллеры могут не работать, если поддержка драйверов для операционной системы хоста недоступна. Примером может служить Технология Intel Rapid Storage, реализованная на многих материнских платах потребительского уровня.

Поскольку требуется некоторая минимальная аппаратная поддержка, эта реализация также называется «программным RAID с аппаратной поддержкой», гибридная модель «RAID» или даже «поддельный RAID». Если поддерживается RAID 5, оборудование может предоставлять аппаратный ускоритель XOR. Преимущество этой модели перед чисто программным RAID состоит в том, что - при использовании режима избыточности - загрузочный диск защищен от сбоев (из-за прошивки) во время процесса загрузки даже до того, как драйверы операционной системы вступят во владение.

Целостность

Очистка данных (называемая в некоторых средах считыванием патрулей) включает периодическое чтение и проверку контроллером RAID всех блоков в массиве, включая те, к которым иным образом не обращались. Это обнаруживает плохие блоки перед использованием. Очистка данных проверяет наличие сбойных блоков на каждом устройстве хранения в массиве, но также использует избыточность массива для восстановления сбойных блоков на одном диске и переназначения восстановленных данных на запасные блоки в другом месте на диске.

Часто RAID-контроллер конфигурируется так, чтобы «отбрасывать» компонентный диск (то есть предполагать, что компонентный диск вышел из строя), если диск не отвечает в течение восьми секунд или около того; это может привести к тому, что контроллер массива отключит исправный диск, потому что этому диску не было предоставлено достаточно времени для завершения процедуры восстановления внутренней ошибки. Следовательно, использование потребительских дисков с RAID может быть рискованным, и диски так называемого «корпоративного класса» ограничивают время восстановления после ошибок, чтобы снизить риск. Раньше для настольных дисков Western Digital было определенное исправление. Утилита WDTLER.exe ограничивает время восстановления диска после ошибки. Утилита включила TLER (временное исправление ошибок), которое ограничивает время восстановления после ошибок семью секундами. Примерно в сентябре 2009 года Western Digital отключила эту функцию на своих дисках для настольных ПК (таких как линейка Caviar Black), что сделало такие диски непригодными для использования в конфигурациях RAID. Однако накопители корпоративного класса Western Digital поставляются с завода с включенным TLER. Подобные технологии используют Seagate, Samsung и Hitachi. Поэтому для использования без RAID диск корпоративного класса с коротким таймаутом восстановления после ошибки, который нельзя изменить, менее подходит, чем настольный диск. В конце 2010 года программа Smartmontools начала поддерживать конфигурацию ATA Error Recovery Control, позволяя инструменту настраивать многие жесткие диски настольного класса для использования в конфигурациях RAID.

Хотя RAID может защитить от сбой физического диска, данные по-прежнему подвергаются разрушению оператором, программным обеспечением, оборудованием и вирусами. Многие исследования ссылаются на ошибку оператора как на частый источник неисправности, такой как оператор сервера, заменяющий неправильный диск в неисправном RAID, и отключение системы (даже временное) в процессе.

Массив может быть перегружен катастрофический отказ, превышающий его возможности восстановления, и весь массив подвергается риску физического повреждения в результате пожара, стихийных бедствий и действий человека, однако резервные копии могут храниться за пределами площадки. Массив также уязвим для сбоя контроллера, потому что не всегда можно перенести его на новый, другой контроллер без потери данных.

Слабые стороны

Коррелированные сбои

На практике, диски часто одного возраста (с одинаковым износом) и подвержены одинаковым условиям эксплуатации. Поскольку многие отказы дисков происходят из-за механических проблем (которые более вероятны на старых накопителях), это нарушает предположения о независимой одинаковой частоте отказов среди накопителей; отказы фактически статистически коррелированы. На практике вероятность второго сбоя до того, как будет восстановлена ​​первая (что приведет к потере данных), выше, чем вероятность случайных сбоев. При исследовании около 100 000 дисков вероятность того, что два диска в одном кластере выйдут из строя в течение одного часа, была в четыре раза больше, чем прогнозировалось экспоненциальным статистическим распределением, которое характеризует процессы, в которых события происходят непрерывно и независимо в постоянная средняя скорость. Вероятность двух сбоев за один и тот же 10-часовой период была вдвое выше, чем предсказывалось экспоненциальным распределением.

Неустранимые ошибки чтения во время перестроения

Неустранимые ошибки чтения (URE), присутствующие при чтении сектора сбои, также известные как скрытые ошибки сектора (LSE). Соответствующий показатель оценки носителя, частота неустранимых битовых ошибок (UBE), обычно гарантированно составляет менее одного бит из 10 для накопителей корпоративного класса (SCSI, FC, SAS или SATA) и менее одного. бит в 10 для дисков настольного класса (IDE / ATA / PATA или SATA). Увеличение емкости дисков и большие экземпляры RAID 5 привели к тому, что максимальная частота ошибок недостаточна для гарантии успешного восстановления из-за высокой вероятности возникновения такой ошибки на одном или нескольких оставшихся дисках во время восстановления набора RAID. При перестройке схемы на основе четности, такие как RAID 5, особенно подвержены влиянию URE, поскольку они влияют не только на сектор, в котором они возникают, но и на реконструированные блоки, использующие этот сектор для вычисления четности.

Двойная защита Схемы на основе четности, такие как RAID 6, пытаются решить эту проблему, обеспечивая избыточность, которая допускает отказы двух дисков; как обратная сторона, такие схемы страдают повышенным штрафом за запись - количество раз, когда носитель данных должен быть доступен во время одной операции записи. Схемы, которые дублируют (зеркалируют) данные по принципу диск-диск, такие как RAID 1 и RAID 10, имеют меньший риск от URE, чем схемы, использующие вычисление четности или зеркалирование между чередующимися наборами. Очистка данных, в качестве фонового процесса может использоваться для обнаружения URE и восстановления из них, что эффективно снижает риск их возникновения во время восстановления RAID и возникновения сбоев двух дисков. Восстановление URE включает в себя повторное отображение затронутых базовых секторов диска с использованием пула переназначения секторов диска; в случае обнаружения URE во время фоновой очистки, избыточность данных, обеспечиваемая полностью работоспособным набором RAID, позволяет восстановить недостающие данные и перезаписать их в переназначенный сектор.

Увеличение времени восстановления и вероятности отказа

Емкость накопителя росла намного быстрее, чем скорость передачи, а количество ошибок по сравнению с этим снизилось лишь незначительно. Таким образом, восстановление дисков большей емкости может занять часы, если не дни, в течение которых другие диски могут выйти из строя или появиться необнаруженные ошибки чтения. Время восстановления также ограничено, если весь массив все еще работает с уменьшенной емкостью. Для массива с одним резервным диском (что относится к уровням RAID 3, 4 и 5, а также к «классическому» двухдисковому RAID 1) отказ второго диска приведет к полному отказу массива. Несмотря на то, что среднее время наработки на отказ (MTBF) отдельных дисков со временем увеличилось, это увеличение не поспевает за увеличением емкости хранилища дисков. Время восстановления массива после сбоя одного диска, а также вероятность второго сбоя во время восстановления со временем увеличивались.

Некоторые комментаторы заявили, что RAID 6 - это всего лишь «бандаж» в этом отношении, потому что это лишь немного продвигает проблему в будущем. Однако, согласно исследованию NetApp 2006 года, проведенному Berriman et al., Вероятность сбоя уменьшается примерно в 3800 раз (по сравнению с RAID 5) для правильной реализации RAID 6, даже при использовании обычных дисков.. Тем не менее, если наблюдаемые в настоящее время технологические тенденции останутся неизменными, в 2019 году у массива RAID 6 будет такая же вероятность отказа, как у его аналога RAID 5 в 2010 году.

Схемы зеркалирования, такие как RAID 10, имеют ограниченное время восстановления поскольку они требуют копии одного отказавшего диска, по сравнению со схемами четности, такими как RAID 6, которые требуют копии всех блоков дисков в наборе массива. Схемы тройной четности или тройного зеркалирования были предложены в качестве одного из подходов к повышению устойчивости к отказу дополнительных дисков в течение этого длительного периода восстановления.

Атомарность

Сбой системы или другое прерывание записи операция может привести к состояниям, в которых четность несовместима с данными из-за неатомарности процесса записи, так что четность не может использоваться для восстановления в случае отказа диска. Это обычно называется отверстием для записи RAID 5. Отверстие для записи RAID - известная проблема повреждения данных в старых и недорогих RAID-массивах, вызванная прерыванием записи на диск. Отверстие для записи может быть устранено с помощью ведения журнала упреждающей записи. Это было исправлено в mdadm путем введения специального устройства журналирования (во избежание снижения производительности обычно предпочтительны SSD и NVM ) для этой цели.

Это малоизученный и редко упоминаемый режим отказа для избыточных систем хранения, не использующих транзакционные функции. Исследователь баз данных Джим Грей писал: «Обновление на месте - это ядовитое яблоко» на заре коммерциализации реляционных баз данных.

Надежность кэша записи

Есть опасения по поводу записи -надежность кэша, особенно в отношении устройств, оснащенных кешем обратной записи, который представляет собой систему кэширования, которая сообщает о записанных данных, как только они записываются в кэш, а не когда они записываются в нелетучая среда. Если в системе произойдет сбой питания или другой серьезный сбой, данные могут быть безвозвратно потеряны из кеша до того, как достигнут энергонезависимой памяти. По этой причине хорошие реализации кеша с обратной записью включают механизмы, такие как резервное питание от батареи, для сохранения содержимого кеша при сбоях системы (включая сбои питания) и для очистки кеша во время перезапуска системы.>Сетевое хранилище (NAS)

  • Архитектура дисков без RAID
  • Резервный массив независимой памяти
  • SMART
  • Ссылки

    Внешние ссылки

    На Wikimedia Commons есть носители связанный с избыточным массивом независимых дисков.
    Последняя правка сделана 2021-06-03 04:16:57
    Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
    Обратная связь: support@alphapedia.ru
    Соглашение
    О проекте