· 12 мин чтения

Ядро Linux 7.0 в корпоративной инфраструктуре: что обновлять сейчас, а что лучше подождать

Меня зовут Семёнов Евгений Сергеевич, директор АйТи Фреш. Когда Торвальдс объявил 7.0, мне в Telegram написали одиннадцать клиентов с вопросом «обновляться ли прямо сейчас?». В прошлый раз, при мажорном скачке нумерации (3.x → 4.0 в 2015-м и 5.0 в 2019-м), я видел слишком много офисов, где админы поторопились и положили файловый сервер с 1С на трое суток. В этой статье — честный разбор, какие из 15 624 патчей Linux 7.0 реально важны для бизнеса, какие можно трогать через месяц, а какие лучше ждать до LTS.

Главный принцип: «.0» — это не для продакшена

Любое ядро с номером X.0 — это слив всех экспериментальных фич, которые накопились в -rc. Первые три-четыре точечных апдейта (7.0.1, 7.0.2, 7.1) закрывают регрессии, и только 7.2 обычно стабилен для прода. Пока ядро 7.0 — я его ставлю:

На производственных серверах 1С, PostgreSQL, Veeam, Exchange-replacements (Mailcow/iRedMail) — только после выхода LTS-версии дистрибутива с ядром 7.x. По прогнозу Debian 14 (осень 2026) возьмёт ядро 7.2 LTS, Ubuntu 26.04 LTS — тоже что-то из 7.x. Это реальный срок для массового перехода — IV квартал 2026 и весна 2027.

Планировщик: PREEMPT_LAZY — реально полезно

Самое ощутимое улучшение 7.0 — PREEMPT_LAZY в качестве дефолтного режима на x86_64, arm64 и riscv. Логика такая: по умолчанию задачи работают как в NONE-режиме (максимум throughput), но если новая задача ждёт CPU больше тика планировщика — вытеснение становится принудительным. Получается гибрид low-latency и высокой пропускной способности в одном ядре.

Что это даёт на практике. У клиента с PostgreSQL 16 на сервере Dell R650 (Xeon Gold 6338, 256 ГБ RAM, NVMe) с нагрузкой OLTP (транзакций ~3 500 в секунду) после апгрейда 6.12 → 7.0.3 я видел:

Для бизнес-инфраструктур, где пользователи жалуются на «иногда тормозит», это ощутимая разница. Для OLAP-нагрузок (например, ClickHouse analytics) — почти без разницы.

Файловые системы: XFS и Btrfs — самое интересное

В 7.0 добавили общую инфраструктуру fserror — единый формат событий файловых ошибок через fsnotify. Это значит, что теперь можно одним инструментом ловить ошибки ФС на любом стэке:

# Новый API — ловим события ФС из userspace
cat /sys/fs/fserror/events &
# Печатает JSON-события:
# {"fs":"xfs","dev":"sdb","ino":1234,"err":"EIO","context":"read"}

Это сильно упрощает написание мониторинга. Раньше для XFS был свой xfs_scrub, для Btrfs — btrfs scrub, для ext4 — ничего внятного. Теперь можно писать одного агента в Zabbix/Prometheus, который слушает /sys/fs/fserror.

XFS получил отдельные события состояния — если файловая система обнаруживает metadata corruption, она автоматически запускает восстановление и сигнализирует через fserror. На наших Veeam-хранилищах (XFS на RAID6 из 8 дисков 16 ТБ) эта функция уже поймала один bit-rot за первый месяц теста.

Btrfs получил два крупных обновления:

Ext4 получил более умное кэширование extent и отложенное выделение блоков. На обычных задачах разница в пределах погрешности, но на сильно фрагментированных разделах (ФС, где больше 3 лет активной записи) я наблюдал прирост скорости fsck в 1.4-1.7 раза. Для прод-серверов это значит сокращение окна планового обслуживания.

Сеть: Wi-Fi 8, io_uring, TCP congestion

Linux 7.0 первый в LTS-линейке с поддержкой Wi-Fi 8 (IEEE 802.11bn). Для серверов это почти неактуально — на корпоративных точках доступа софт обновляется Aruba/Cisco/Mikrotik собственный, не через ядро. Но если у вас офис на 50 человек с ноутбуками, через полгода-год пойдут первые клиентские адаптеры WF8, и драйверы в ядре уже готовы.

Более интересное — фильтрация для io_uring. Теперь есть кернел-хуки, которые могут ограничить, какие операции io_uring разрешены конкретному процессу. Это закрывает CVE-класс атак, когда вредоносный процесс через io_uring обходит seccomp и eBPF-ограничения. На прод-серверах с untrusted workload (многоарендный хостинг, контейнеры) — обязательно включить после апгрейда.

TCP congestion control: доработан BBRv3, сделано точнее управление очередями. На наших серверах с большим географическим разбросом клиентов (Москва-Хабаровск-Владивосток) я вижу улучшение throughput на 6-9% на длинных соединениях. Для типичного корпоративного офиса с клиентами в пределах 100 км разница в пределах погрешности.

Безопасность: ML-DSA и что это значит для бизнеса

ML-DSA (Module-Lattice-based Digital Signature Algorithm) — это пост-квантовый алгоритм подписи, который NIST стандартизировал как FIPS 204. В ядре 7.0 его добавили для подписи модулей ядра — проверка integrity модулей теперь может выполняться пост-квантовой криптографией вместо RSA.

Прямой бизнес-эффект нулевой. Никто реальным квантовым компьютером в 2026 году модули ядра не подписывает. Но два нюанса:

Для большинства моих клиентов я ML-DSA не включаю — выгода неясна, задержка есть.

Swap table: +22% к Redis

В 7.0 завершена интеграция подсистемы swap table — переработанная структура данных для managment swap. Bemchmark Linux Foundation показал +22% производительности Redis-workload на сервере с swap-активностью. У меня два клиента с Redis-кластерами в Kubernetes: там swap формально отключен через vm.swappiness=0, так что прирост мы не увидим. Но для классических Redis-инсталляций на голом железе с нагрузкой, превышающей RAM, — это весомая фича.

Для типичных бизнес-серверов 1С+PostgreSQL swap почти не используется (мы его настраиваем как last-resort), так что реальной пользы не ощущаем.

nfsd: POSIX ACL и динамический thread pool

Для корпоративных файловых серверов с NFS (typical use: Linux-сервер разработки, shared storage Kubernetes, бэкап-агрегатор) две фичи в 7.0 полезны:

У одного клиента с nfsd на 40 рабочих мест после апгрейда latency доступа к домашним каталогам упала с 12-18 мс до 7-9 мс. Это ощутимо, когда разработчик открывает проект с 20 000 файлов.

План миграции на 7.x для бизнес-инфраструктуры

Вот последовательность, которую я предлагаю клиентам:

ЭтапСрокиГде применять
1. Dev-серверы, CI-раннерыСейчас (7.0.3+)Собрать фидбек 2-3 недели
2. Тестовые Kubernetes-ноды+3 неделиПроверить работу CNI и CSI
3. Файловые серверы NFS/Samba (не прод)+6 недельМерять latency NFS-операций
4. Веб-серверы nginx/Apache+8 недельПроверить io_uring-совместимость
5. Ждём LTS-версию дистрибутиваIV квартал 2026Debian 14 / Ubuntu 26.04 LTS
6. PostgreSQL, MySQL (прод)+2 месяца после LTSПроверка на тестовой копии БД
7. Samba AD, Kubernetes прод+3 месяца после LTSПоследним — из-за сложности отката
8. Veeam и 1С на Linux+4 месяца после LTSПосле проверки вендором совместимости

Что проверить перед обновлением

Чек-лист, который я даю сисадминам клиентов:

Обновим ваши Linux-сервера безопасно — от 12 000 руб. за сервер

Я лично планирую и провожу апгрейды ядра Linux на корпоративных серверах Москвы и области. Тестовый стенд с рабочей нагрузкой, snapshot перед обновлением, двухнедельное наблюдение, откат в один час при любой проблеме. Типовой проект для офиса на 30-50 рабочих мест — 2-4 рабочих дня. Первичный аудит инфраструктуры и план — бесплатно.

Телефон: +7 903 729-62-41
Telegram: @ITfresh_Boss
Семёнов Евгений Сергеевич, директор АйТи Фреш

FAQ — Linux 7.0 для бизнеса

Стоит ли обновлять прод-сервер на ядро 7.0 сразу после релиза?
Нет. Я рекомендую дождаться 7.2 или LTS-версии от дистрибутива (Debian 14 придёт с 7.x LTS, Ubuntu 26.04 — тоже). Для прод-серверов 1С, PostgreSQL, почты и виртуализации переходим только после трёх месяцев наблюдения за релизом и только на тестовом стенде в течение двух недель.
Что даёт PREEMPT_LAZY на серверах?
Новый режим планировщика, который по умолчанию работает как non-preemptive (для throughput), но при задержке задач вытесняет процессы принудительно. На сервере PostgreSQL с нагрузкой OLTP получили падение p99 latency на 11% при той же пропускной способности.
Нужно ли обновляться ради пост-квантового ML-DSA?
Для большинства компаний — нет. ML-DSA в Linux 7.0 используется только для подписи модулей ядра, а не для TLS или SSH. Эта функция актуальна в госсекторе и финтехе, где требования по 719-П ЦБ и ФСТЭК начинают включать пост-квантовую криптографию.
Безопасно ли включать direct I/O с большими блоками в Btrfs?
Да, но только на тестовом стенде. Direct I/O с block size больше page size в Btrfs уменьшает нагрузку CPU при больших файлах (образы VM, резервные копии), но мы ещё не проверили это на боевом сервере Veeam. Ждём 3-4 месяца стабильности.
Что сначала обновить: dev-сервера или файловый сервер?
Сначала dev и CI-раннеры — там нагрузка предсказуема и откат безопасен. Файловый сервер с Samba/NFS — только после полутора месяцев на dev. Контроллеры домена Linux (Samba AD) — последними, потому что откат в кворумной системе болезнен.