Dell PERC: настройка RAID на H330, H730 и H755 без лишних движений
Пишет Семёнов Евгений Сергеевич, директор АйТи Фреш. У нас в собственной инфраструктуре стоят 8 серверов Dell на Xeon Platinum 8280, и все RAID я когда-то собирал сам — от простых зеркал под гипервизор до RAID 60 на двадцать дисков под файл-помойку клиента. Контроллеры PERC у меня ассоциируются с надёжностью и странной привычкой Dell каждое поколение менять хоткеи и меню в BIOS. Ниже разложу, что работает в 2025–2026 годах, где удобнее использовать OMSA, а где лучше сразу открыть perccli.
Что такое Dell PERC и какие модели живы
PERC расшифровывается как PowerEdge RAID Controller. Это семейство аппаратных контроллеров Dell со своим процессором, памятью и, на старших моделях, батарейным кэшем. Фишка PERC в том, что он умеет собирать из физических дисков Virtual Disk, отдавать его в ОС как единый том и самостоятельно тянуть ребилд без участия хоста.
В свежих инсталляциях клиентам чаще всего ставлю три модели:
- PERC H330 — простой контроллер без кэша. Поддерживает RAID 0/1/5/10/50. Подходит под загрузочный том и рабочие станции. Write-Back недоступен.
- PERC H730P / H740P — 2 или 8 ГБ кэша с BBU, режимы FastPath, Online Capacity Expansion и миграция уровней. Рабочая лошадка 13–14 поколений PowerEdge.
- PERC H755 / H755N — топовый контроллер 15–16 поколений, 8 ГБ кэша, поддержка NVMe Tri-Mode. На нём же собирают RAID из SSD-накопителей U.2 в R760 и R760xs.
Для младших рабочих нагрузок ещё встречается H345 и H355 — это де-факто SAS-HBA с простым RAID 1/10, их Dell ставит вместо H330 на шасси 16-го поколения.
Как выбрать уровень RAID под задачу
Голый RAID 0 в продакшне не ставлю никогда — даже под кэш. Одна потерянная плашка, и массив рассыпается. Ниже таблица, по которой я принимаю решение на площадке клиента.
| Уровень | Мин. дисков | Живучесть | Когда беру |
|---|---|---|---|
| RAID 1 | 2 | −1 диск | Загрузочный том, hypervisor boot |
| RAID 5 | 3 | −1 диск | Архив, небольшие общие папки на SAS |
| RAID 6 | 4 | −2 диска | Большие NL-SAS массивы, бэкап-тома |
| RAID 10 | 4 | −1 в каждой паре | Базы данных, VMware, Hyper-V |
| RAID 50 | 6 | −1 в каждой группе | Файлопомойки 20+ ТБ |
| RAID 60 | 8 | −2 в каждой группе | Видеонаблюдение, долгосрочный архив |
У меня простое правило. SSD под БД — только RAID 10. SATA 7.2k на 8–16 ТБ — только RAID 6 или 60, потому что ребилд RAID 5 на таком объёме открывает окно для второй ошибки почти на сутки.
Создание Virtual Disk через BIOS
Способ номер один — классический BIOS контроллера. На 13-м поколении серверов (R730, T630) это Ctrl+R при загрузке, на 14-м и новее — F2 и пункт Device Settings.
- На приглашении PERC жмите Ctrl+R или заходите в System Setup через F2.
- Выбираем контроллер, далее Configuration Management или F2 → Create New VD.
- Указываем уровень RAID, клавишей пробел отмечаем физические диски.
- Задаём Strip Size: я оставляю 64 КБ для универсальных задач, 128 КБ — под файловые сервера с большими файлами.
- Read Policy — Adaptive Read-Ahead, Write Policy — Write-Back при наличии BBU.
- Жмём OK, инициализация фоновая, можно сразу ставить ОС.
Важный момент: никогда не создавайте RAID на дисках, которые уже содержат данные — контроллер перезаписывает служебные области и прежняя файловая система исчезнет. Всё это я видел на практике у клиентов, которые пытались мигрировать с программного RAID без бэкапа.
Управление из ОС через OMSA
Если сервер уже в продакшне и ребутить его нельзя, перекладываю работу в OpenManage Server Administrator. Ставится как на Windows, так и на Linux, веб-интерфейс крутится на порту 1311.
# Ubuntu 22.04 — установка OMSA 11
curl -O https://linux.dell.com/repo/pgp_pubkeys/0x1285491434D8786F.asc
sudo apt-key add 0x1285491434D8786F.asc
echo "deb http://linux.dell.com/repo/community/openmanage/11200/jammy jammy main" | \
sudo tee /etc/apt/sources.list.d/linux.dell.com.list
sudo apt update
sudo apt install srvadmin-all -y
sudo srvadmin-services.sh start
Через меню Storage → Controllers выбираем PERC, команда Create Virtual Disk проводит через мастер. Плюс OMSA — можно посмотреть SMART по каждому диску, температуру и проценты износа SSD. Минус — тяжёлый агент, жрёт 250–400 МБ RAM.
Командная строка: perccli и racadm
Когда на стойке 10+ серверов, я полностью перехожу на CLI. perccli работает изнутри ОС, racadm — с iDRAC по сети, можно автоматизировать целыми плейбуками Ansible.
# perccli на Linux
sudo /opt/MegaRAID/perccli/perccli64 /c0 show # контроллер
sudo /opt/MegaRAID/perccli/perccli64 /c0/eall/sall show # физические диски
sudo /opt/MegaRAID/perccli/perccli64 /c0/vall show # виртуальные диски
# Создание RAID 10 из 4 SSD в слотах 0-3 enclosure 252
perccli /c0 add vd r10 drives=252:0-3 pdperarray=2 \
wt=no wb=yes ra=yes cached=on
# Назначить диск слота 7 глобальным Hot Spare
perccli /c0/e252/s7 add hotsparedrive
# racadm через iDRAC — удалённо
racadm -r 10.10.10.15 -u root -p "..." storage get pdisks
racadm -r 10.10.10.15 -u root -p "..." storage createvd:RAID.Integrated.1-1 \
-rl r5 -pdkey:Disk.Bay.0:Enclosure.Internal.0-1:RAID.Integrated.1-1,\
Disk.Bay.1:Enclosure.Internal.0-1:RAID.Integrated.1-1,\
Disk.Bay.2:Enclosure.Internal.0-1:RAID.Integrated.1-1
racadm -r 10.10.10.15 -u root -p "..." jobqueue create RAID.Integrated.1-1 \
--realtime
На iDRAC 9 флаг --realtime применяет изменения без перезагрузки сервера — удобно, когда нельзя прерывать работу.
Hot Spare, Patrol Read и мониторинг
В любом клиентском сервере, где больше 4 дисков, у меня всегда есть хотя бы один Global Hot Spare. Это диск, который простаивает, пока кто-то из основных не выйдет из строя. Без него вы получаете деградированный массив и молитвы, что второй диск не умрёт до приезда замены.
Patrol Read — фоновое вычитывание всех секторов массива. Включаю в автоматическом режиме с ограничением 30% ресурса:
perccli /c0 set patrolread=on mode=auto
perccli /c0 set patrolread rate=30
perccli /c0 set cc=on mode=concurrent rate=30
perccli /c0/bbu show status
Для мониторинга дежурный в АйТи Фреш использует простой скрипт, который раз в 5 минут дёргает perccli и при слове Degraded летит алерт в наш Telegram-бот и по SMTP на дежурного инженера. За счёт этого мы ловим предвестники отказов за несколько дней до самого инцидента.
Кейс: продакшн-восстановление RAID 5 в Химках
Осенью 2025 клиент — оптовая компания в Химках, 35 РМ, сервер PowerEdge R740xd с PERC H740P. В понедельник утром приходит алерт: два диска по 2.4 ТБ SAS в массиве RAID 5 показывают Predictive Failure одновременно. Массив живой, но один отказ — и потеря всего хранилища 1С вместе с архивом за пять лет.
Что сделали за 18 часов:
- Сняли полный бэкап тома на отдельный NAS — для страховки.
- Поменяли первый диск с Predictive Failure, запустили ребилд. На массив 8 ТБ ушло 14 часов.
- После успешного ребилда поменяли второй диск, ещё 13 часов.
- Параллельно на H740P мигрировали массив с RAID 5 на RAID 6 (Online RAID Level Migration, добавили один диск). Миграция шла 22 часа в фоне.
- Включили Hot Spare, настроили еженедельный отчёт по SMART из perccli.
Итог: простой — 0 минут, работа обошлась клиенту в 72 000 руб. включая два новых диска и выезд инженера на ночь. Прошло полгода — ни одного инцидента больше.
Частые проблемы и как их лечить
- Foreign Configuration. Контроллер увидел диски, прописанные другим PERC. Или импортируете конфигурацию (
/c0 /fall import), если данные ваши, или чистите (/c0 /fall delete) перед пересборкой. - BBU Learn Cycle. Батарея раз в 90 дней разряжается полностью и заряжается обратно. На это время Write-Back временно переходит в Write-Through и производительность записи падает. Это штатно, но клиентов лучше предупредить.
- Unconfigured Bad. Диск помечен контроллером как «плохой», но не находится в массиве. Команда
perccli /c0/e252/sN set goodвозвращает его в Unconfigured Good, после чего можно снова использовать. - Consistency Check обнаружил расхождения. Обычно это означает наличие bad-секторов. Не игнорируйте — запускайте полное копирование данных на другой массив, меняйте диск, пересобирайте.
- Нестабильный backplane. Если несколько дисков по очереди «отваливаются» — виноват не диск, а корзина или кабель SAS. Меняйте backplane, не гоняйте диски по кругу.
Оптимизация производительности
Стандартные настройки Dell достаточно консервативны. Для продакшена я обычно меняю четыре параметра:
- Write Policy — Write-Back для массивов, защищённых BBU. Ускоряет случайную запись в 3–5 раз на HDD.
- Read Policy — Adaptive Read-Ahead. Контроллер сам решает, когда включать упреждающее чтение.
- Disk Cache — Disabled на HDD для критичных данных, чтобы внезапное обесточивание не потеряло запись в кэше шпинделя. На SSD — Enabled.
- Strip Size — 128 КБ для видео и файлового архива, 64 КБ для БД и VMware.
# Изменение политик на Virtual Disk 0
perccli /c0/v0 set wrcache=WB
perccli /c0/v0 set rdcache=ARA
perccli /c0/v0 set pdcache=off
perccli /c0/v0 set iopolicy=Cached
Соберём и поддержим сервер Dell под ключ
Моя команда АйТи Фреш занимается серверным железом Dell с 2011 года. Подберём шасси PowerEdge и контроллер под ваш профиль нагрузки, соберём RAID, настроим iDRAC, подключим мониторинг и возьмём поддержку 24/7 по SLA. Выезд по Москве и МО за 2–4 часа, экстренная замена дисков из нашего склада.
Телефон: +7 903 729-62-41
Telegram: @ITfresh_Boss
Семёнов Евгений Сергеевич, директор АйТи Фреш
FAQ — частые вопросы про Dell PERC
- Какой уровень RAID выбрать для сервера 50 сотрудников?
- Под систему — зеркало RAID 1 из двух SSD. Под данные при 4–6 дисках рассматривайте RAID 10 или RAID 6. RAID 5 на SATA-дисках большого объёма сегодня советую использовать осторожно — ребилд занимает сутки и больше.
- Почему на PERC H330 нельзя включить Write-Back?
- У H330 физически отсутствует DRAM-кэш и батарейный модуль, поэтому Write-Back невозможен. Контроллер работает только в Write-Through. Нужна скорость записи — ставьте H730P, H740P или H755 с BBU.
- Что делать, если диск перешёл в Predictive Failure?
- Это предупреждение о скором отказе. Меняйте диск, пока массив в Optimal. При Global Hot Spare замена делается с горячей подменой, контроллер сам начнёт синхронизацию.
- Можно ли поменять уровень RAID без пересоздания?
- На H730, H740P и H755 доступна миграция RAID Level Migration. На H330 такой возможности нет — потребуется бэкап, пересоздание массива и восстановление.
- Сколько длится ребилд массива 8 ТБ?
- Для RAID 5 из 4 дисков SAS 10k — 10–18 часов. На NL-SAS 7.2k и больших объёмах время доходит до 36 часов. Под нагрузкой ребилд замедляется кратно.