Ядро Linux 7.0 в корпоративной инфраструктуре: что обновлять сейчас, а что лучше подождать
Меня зовут Семёнов Евгений Сергеевич, директор АйТи Фреш. Когда Торвальдс объявил 7.0, мне в Telegram написали одиннадцать клиентов с вопросом «обновляться ли прямо сейчас?». В прошлый раз, при мажорном скачке нумерации (3.x → 4.0 в 2015-м и 5.0 в 2019-м), я видел слишком много офисов, где админы поторопились и положили файловый сервер с 1С на трое суток. В этой статье — честный разбор, какие из 15 624 патчей Linux 7.0 реально важны для бизнеса, какие можно трогать через месяц, а какие лучше ждать до LTS.
Главный принцип: «.0» — это не для продакшена
Любое ядро с номером X.0 — это слив всех экспериментальных фич, которые накопились в -rc. Первые три-четыре точечных апдейта (7.0.1, 7.0.2, 7.1) закрывают регрессии, и только 7.2 обычно стабилен для прода. Пока ядро 7.0 — я его ставлю:
- На dev-стенды и CI-раннеры (Jenkins, GitLab Runner, Tekton).
- На тестовые узлы Kubernetes, не в продовых кластерах.
- На домашние серверы сисадминов, которые любят новое.
На производственных серверах 1С, PostgreSQL, Veeam, Exchange-replacements (Mailcow/iRedMail) — только после выхода LTS-версии дистрибутива с ядром 7.x. По прогнозу Debian 14 (осень 2026) возьмёт ядро 7.2 LTS, Ubuntu 26.04 LTS — тоже что-то из 7.x. Это реальный срок для массового перехода — IV квартал 2026 и весна 2027.
Планировщик: PREEMPT_LAZY — реально полезно
Самое ощутимое улучшение 7.0 — PREEMPT_LAZY в качестве дефолтного режима на x86_64, arm64 и riscv. Логика такая: по умолчанию задачи работают как в NONE-режиме (максимум throughput), но если новая задача ждёт CPU больше тика планировщика — вытеснение становится принудительным. Получается гибрид low-latency и высокой пропускной способности в одном ядре.
Что это даёт на практике. У клиента с PostgreSQL 16 на сервере Dell R650 (Xeon Gold 6338, 256 ГБ RAM, NVMe) с нагрузкой OLTP (транзакций ~3 500 в секунду) после апгрейда 6.12 → 7.0.3 я видел:
- p50 latency: 2.1 ms → 2.0 ms (не значимо).
- p99 latency: 18 ms → 16 ms (-11%).
- p99.9 latency: 46 ms → 32 ms (-30%).
- Throughput: без изменений.
Для бизнес-инфраструктур, где пользователи жалуются на «иногда тормозит», это ощутимая разница. Для OLAP-нагрузок (например, ClickHouse analytics) — почти без разницы.
Файловые системы: XFS и Btrfs — самое интересное
В 7.0 добавили общую инфраструктуру fserror — единый формат событий файловых ошибок через fsnotify. Это значит, что теперь можно одним инструментом ловить ошибки ФС на любом стэке:
# Новый API — ловим события ФС из userspace
cat /sys/fs/fserror/events &
# Печатает JSON-события:
# {"fs":"xfs","dev":"sdb","ino":1234,"err":"EIO","context":"read"}
Это сильно упрощает написание мониторинга. Раньше для XFS был свой xfs_scrub, для Btrfs — btrfs scrub, для ext4 — ничего внятного. Теперь можно писать одного агента в Zabbix/Prometheus, который слушает /sys/fs/fserror.
XFS получил отдельные события состояния — если файловая система обнаруживает metadata corruption, она автоматически запускает восстановление и сигнализирует через fserror. На наших Veeam-хранилищах (XFS на RAID6 из 8 дисков 16 ТБ) эта функция уже поймала один bit-rot за первый месяц теста.
Btrfs получил два крупных обновления:
- Отложенное разрешение перемещённых данных. Операция balance или reshard больше не блокирует запись. Это реально важно на больших файловых серверах, где balance раньше останавливал Samba-клиентов на час.
- Direct I/O с блоками больше page size. Для VM-образов и дисков бэкапа уменьшает нагрузку на CPU на 15-20% при больших последовательных операциях. Но пока у меня нет достаточной статистики на проде — тестирую ещё месяц.
Ext4 получил более умное кэширование extent и отложенное выделение блоков. На обычных задачах разница в пределах погрешности, но на сильно фрагментированных разделах (ФС, где больше 3 лет активной записи) я наблюдал прирост скорости fsck в 1.4-1.7 раза. Для прод-серверов это значит сокращение окна планового обслуживания.
Сеть: Wi-Fi 8, io_uring, TCP congestion
Linux 7.0 первый в LTS-линейке с поддержкой Wi-Fi 8 (IEEE 802.11bn). Для серверов это почти неактуально — на корпоративных точках доступа софт обновляется Aruba/Cisco/Mikrotik собственный, не через ядро. Но если у вас офис на 50 человек с ноутбуками, через полгода-год пойдут первые клиентские адаптеры WF8, и драйверы в ядре уже готовы.
Более интересное — фильтрация для io_uring. Теперь есть кернел-хуки, которые могут ограничить, какие операции io_uring разрешены конкретному процессу. Это закрывает CVE-класс атак, когда вредоносный процесс через io_uring обходит seccomp и eBPF-ограничения. На прод-серверах с untrusted workload (многоарендный хостинг, контейнеры) — обязательно включить после апгрейда.
TCP congestion control: доработан BBRv3, сделано точнее управление очередями. На наших серверах с большим географическим разбросом клиентов (Москва-Хабаровск-Владивосток) я вижу улучшение throughput на 6-9% на длинных соединениях. Для типичного корпоративного офиса с клиентами в пределах 100 км разница в пределах погрешности.
Безопасность: ML-DSA и что это значит для бизнеса
ML-DSA (Module-Lattice-based Digital Signature Algorithm) — это пост-квантовый алгоритм подписи, который NIST стандартизировал как FIPS 204. В ядре 7.0 его добавили для подписи модулей ядра — проверка integrity модулей теперь может выполняться пост-квантовой криптографией вместо RSA.
Прямой бизнес-эффект нулевой. Никто реальным квантовым компьютером в 2026 году модули ядра не подписывает. Но два нюанса:
- Для финтеха и госсектора требования ФСТЭК начинают включать пост-квантовые алгоритмы в расчёт долгосрочной защиты. Если у вашей компании 5-летний горизонт сохранения данных — теперь можно подписывать критические модули ML-DSA.
- Включение ML-DSA увеличивает boot time на 200-400 мс из-за проверки подписей. Для инфраструктуры, где boot time критичен (PXE-стенды, Kubernetes-ноды с быстрым rebalance), это стоит замерить.
Для большинства моих клиентов я ML-DSA не включаю — выгода неясна, задержка есть.
Swap table: +22% к Redis
В 7.0 завершена интеграция подсистемы swap table — переработанная структура данных для managment swap. Bemchmark Linux Foundation показал +22% производительности Redis-workload на сервере с swap-активностью. У меня два клиента с Redis-кластерами в Kubernetes: там swap формально отключен через vm.swappiness=0, так что прирост мы не увидим. Но для классических Redis-инсталляций на голом железе с нагрузкой, превышающей RAM, — это весомая фича.
Для типичных бизнес-серверов 1С+PostgreSQL swap почти не используется (мы его настраиваем как last-resort), так что реальной пользы не ощущаем.
nfsd: POSIX ACL и динамический thread pool
Для корпоративных файловых серверов с NFS (typical use: Linux-сервер разработки, shared storage Kubernetes, бэкап-агрегатор) две фичи в 7.0 полезны:
- POSIX ACL в nfsd. Наконец-то на NFS-шарах работают правила доступа POSIX ACL, а не только UNIX-модные разрешения. Раньше это обходили через Samba+CIFS, теперь можно держать чистый NFS-сервер с полноценным ACL.
- Динамический thread pool. Количество рабочих потоков nfsd меняется на лету в зависимости от нагрузки. Больше не нужно подбирать
RPCNFSDCOUNTв конфиге — ядро делает это само.
У одного клиента с nfsd на 40 рабочих мест после апгрейда latency доступа к домашним каталогам упала с 12-18 мс до 7-9 мс. Это ощутимо, когда разработчик открывает проект с 20 000 файлов.
План миграции на 7.x для бизнес-инфраструктуры
Вот последовательность, которую я предлагаю клиентам:
| Этап | Сроки | Где применять |
|---|---|---|
| 1. Dev-серверы, CI-раннеры | Сейчас (7.0.3+) | Собрать фидбек 2-3 недели |
| 2. Тестовые Kubernetes-ноды | +3 недели | Проверить работу CNI и CSI |
| 3. Файловые серверы NFS/Samba (не прод) | +6 недель | Мерять latency NFS-операций |
| 4. Веб-серверы nginx/Apache | +8 недель | Проверить io_uring-совместимость |
| 5. Ждём LTS-версию дистрибутива | IV квартал 2026 | Debian 14 / Ubuntu 26.04 LTS |
| 6. PostgreSQL, MySQL (прод) | +2 месяца после LTS | Проверка на тестовой копии БД |
| 7. Samba AD, Kubernetes прод | +3 месяца после LTS | Последним — из-за сложности отката |
| 8. Veeam и 1С на Linux | +4 месяца после LTS | После проверки вендором совместимости |
Что проверить перед обновлением
Чек-лист, который я даю сисадминам клиентов:
- Версия KVM/QEMU — полная совместимость с 7.x (qemu 8.2+).
- Драйверы RAID-контроллеров (megaraid_sas, mpt3sas) — проверить в
lspci -kv. - Драйверы сетевых адаптеров Intel X550/X710, Broadcom BCM57xxx — проверить наличие модулей в новом ядре.
- ZFS на Linux — только после релиза OpenZFS 2.4, который поддерживает 7.x (до этого — regression).
- Docker и containerd — minimum docker 28.0, containerd 2.2 (поддержка новых cgroupv2-фич).
- Nginx/PostgreSQL собраны с io_uring поддержкой — проверить
nginx -V | grep io_uring. - Бэкап всей файловой системы перед загрузкой нового ядра. Dual-boot с GRUB по умолчанию на старое ядро.
Обновим ваши Linux-сервера безопасно — от 12 000 руб. за сервер
Я лично планирую и провожу апгрейды ядра Linux на корпоративных серверах Москвы и области. Тестовый стенд с рабочей нагрузкой, snapshot перед обновлением, двухнедельное наблюдение, откат в один час при любой проблеме. Типовой проект для офиса на 30-50 рабочих мест — 2-4 рабочих дня. Первичный аудит инфраструктуры и план — бесплатно.
Телефон: +7 903 729-62-41
Telegram: @ITfresh_Boss
Семёнов Евгений Сергеевич, директор АйТи Фреш
FAQ — Linux 7.0 для бизнеса
- Стоит ли обновлять прод-сервер на ядро 7.0 сразу после релиза?
- Нет. Я рекомендую дождаться 7.2 или LTS-версии от дистрибутива (Debian 14 придёт с 7.x LTS, Ubuntu 26.04 — тоже). Для прод-серверов 1С, PostgreSQL, почты и виртуализации переходим только после трёх месяцев наблюдения за релизом и только на тестовом стенде в течение двух недель.
- Что даёт PREEMPT_LAZY на серверах?
- Новый режим планировщика, который по умолчанию работает как non-preemptive (для throughput), но при задержке задач вытесняет процессы принудительно. На сервере PostgreSQL с нагрузкой OLTP получили падение p99 latency на 11% при той же пропускной способности.
- Нужно ли обновляться ради пост-квантового ML-DSA?
- Для большинства компаний — нет. ML-DSA в Linux 7.0 используется только для подписи модулей ядра, а не для TLS или SSH. Эта функция актуальна в госсекторе и финтехе, где требования по 719-П ЦБ и ФСТЭК начинают включать пост-квантовую криптографию.
- Безопасно ли включать direct I/O с большими блоками в Btrfs?
- Да, но только на тестовом стенде. Direct I/O с block size больше page size в Btrfs уменьшает нагрузку CPU при больших файлах (образы VM, резервные копии), но мы ещё не проверили это на боевом сервере Veeam. Ждём 3-4 месяца стабильности.
- Что сначала обновить: dev-сервера или файловый сервер?
- Сначала dev и CI-раннеры — там нагрузка предсказуема и откат безопасен. Файловый сервер с Samba/NFS — только после полутора месяцев на dev. Контроллеры домена Linux (Samba AD) — последними, потому что откат в кворумной системе болезнен.