Миграция с VMware vSphere на Proxmox VE: практический план после Broadcom
Меня зовут Семёнов Евгений Сергеевич, директор АйТи Фреш. После того, как Broadcom в конце 2023 года купил VMware и в 2024 пересмотрел лицензирование, ко мне обратились 14 клиентов с одним и тем же вопросом: куда уходить. Цены на vSphere выросли в 3–5 раз, perpetual-лицензии отменили, минимальная подписка на 16 ядер бьёт по малому и среднему офису. Решение у нас на практике одно — Proxmox VE. За 2025–2026 годы мы провели больше десяти миграций, от кластеров на 8 VM до фермы на 80+. В статье — проверенный план, конкретные команды и грабли, которые лучше не наступать.
Почему уходят с VMware
Кратко — деньги. Broadcom после покупки VMware убрал perpetual-лицензии, заменил подпиской от 16 ядер минимум. Для офиса с двумя хостами Dell R650 по 2×32-core это 64 ядра × 150 USD = 9600 USD/год на самый дешёвый vSphere Standard. Без поддержки, без vSAN, без NSX. Для средней российской компании это абсурдно, особенно в условиях санкций и сложностей с платежами.
Proxmox VE бесплатный, Enterprise-подписка стоит 110 евро за сокет в год и даёт доступ только к более свежему репозиторию — не критично для прода. Функционально Proxmox покрывает 90% задач vSphere Standard: HA, live-миграция, clustering, snapshot, backup через PBS, встроенный ZFS, Ceph, SDN.
Чего в Proxmox нет:
- VMware Distributed Resource Scheduler (автоматическая балансировка нагрузки) — аналогом служит ProxLB.
- NSX (SDN нового поколения) — только частичный аналог через Proxmox SDN + OVS.
- Горизонт VDI — для VDI ставят RDS или Apache Guacamole.
- Платная техподдержка 24/7 — есть подписка Proxmox Premium с поддержкой.
План миграции: общая схема
Я всегда делю миграцию на 5 фаз, чтобы минимизировать риски и простой:
- Аудит. Список VM, объёмы, критичность, окно обслуживания.
- Подготовка железа. Proxmox на новом кластере либо на освобождаемых хостах.
- Пилот. Миграция 2–3 некритичных VM, отладка процесса.
- Волны миграции. По 5–10 VM за окно обслуживания, сортировка от простого к критичному.
- Вывод VMware. После полной миграции — переустановка последних хостов под Proxmox.
Подготовка Proxmox-кластера
Минимум — 3 ноды для кворума HA-кластера. Можно 2 ноды + Q-device на отдельной маленькой VM. Я предпочитаю 3 полноценных хоста. Типовая конфигурация одного хоста для офиса 50+ VM: Dell Xeon Platinum 8280 (28 core/56 thread), 256–512 ГБ RAM, 2× 960 ГБ SSD под OS в ZFS-mirror, 4–6× 3.84 ТБ NVMe под VM в ZFS RAID10.
# После установки Proxmox VE 8.2 на каждой ноде
# Настройка кластерной сети — лучше отдельные интерфейсы 40G Mellanox
ip link set eth2 up
ip addr add 10.200.200.11/24 dev eth2 # corosync
ip addr add 10.200.201.11/24 dev eth3 # migration+replication
# На первой ноде — создаём кластер
pvecm create cluster-prod --link0 address=10.200.200.11 --link1 address=10.200.201.11
# На остальных — присоединяемся
pvecm add 10.200.200.11 --link0 address=10.200.200.12 --link1 address=10.200.201.12
Для межнодовой сети я всегда использую отдельные 40G Mellanox-линки напрямую между нодами (без коммутатора), если нод ровно 3. Это экономит деньги и даёт предсказуемую латентность для репликации и live-migration.
Хранилище: ZFS, Ceph или NFS
| Тип | Плюсы | Минусы | Когда |
|---|---|---|---|
| ZFS local | Простой, быстрый, снэпшоты | Нет общего доступа между нодами | 2–3 ноды, репликация между ними |
| Ceph RBD | Распределённый, HA, масштабирование | Минимум 3 ноды + 3 OSD на ноду, сложный | 5+ нод, enterprise |
| NFS | Общее хранилище, централизованный бэкап | Зависит от сети, bottleneck на NAS | Офис с отдельной СХД Synology/TrueNAS |
| iSCSI+LVM | Enterprise SAN, hardware RAID | Без снэпшотов на уровне PVE | Миграция существующего FC/iSCSI SAN |
На средних клиентах (до 100 VM) я всегда делаю ZFS local + replication между нодами — проще, надёжнее Ceph, не требует экспертизы. У нас на практике ZFS в RAID10 из 6 NVMe даёт 2–3 GB/s последовательной записи и 400k IOPS random read.
Миграция VM через OVF-экспорт
Proxmox 8.1+ умеет прямо подключать ESXi как storage и импортировать VM без промежуточного OVF. Для старых версий и стабильности я пользуюсь классическим OVF-путём.
# 1. На VMware: экспортируем VM в OVF
# Через vSphere Client: File → Export → OVF Template
# Или через ovftool:
ovftool vi://root@esxi01/MyVM /tmp/myvm-export/
# 2. Копируем OVF на Proxmox
scp -r /tmp/myvm-export/ root@pve01:/var/lib/vz/import/
# 3. Импорт через qm importovf
qm importovf 200 /var/lib/vz/import/myvm.ovf local-zfs --format qcow2
# 4. Редактируем конфиг VM перед стартом
qm set 200 --machine q35 --bios ovmf --agent 1 --vga std
qm set 200 --net0 virtio,bridge=vmbr0,tag=30
qm set 200 --ostype win11 --cpu host
Что делать внутри гостевой ОС
Просто мигрировать диски недостаточно — VM нужно подготовить к работе под QEMU вместо ESXi. Ключевые шаги:
- Удалить VMware Tools на старом хосте перед экспортом (Windows) или после импорта до первого старта (Linux).
- Установить virtio-драйверы — сетевая и диск-драйверы virtio быстрее, чем эмуляция e1000/IDE.
- Установить QEMU Guest Agent — для clean-shutdown и fsfreeze.
- Поменять BIOS→UEFI если VM Secure Boot или > 2 ТБ диск.
- Отключить MS VHD-контроллер в BCD (Windows), иначе BSOD 0x7B.
# На Windows VM до миграции:
# Установить virtio-drivers из https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/archive-virtio/
# Убрать VMware Tools через Programs & Features
# На Linux VM после миграции:
apt install qemu-guest-agent -y
systemctl enable --now qemu-guest-agent
# Обновить initramfs с virtio-modules
update-initramfs -u -k all
Сеть и VLAN при миграции
Большинство VMware-кластеров работают с dvSwitch и VLAN-тегированием. В Proxmox аналог — Linux Bridge с vlan-aware или OVS. Настройка на ноде:
# /etc/network/interfaces
auto vmbr0
iface vmbr0 inet manual
bridge-ports bond0
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
auto bond0
iface bond0 inet manual
bond-slaves eno1 eno2
bond-miimon 100
bond-mode 802.3ad
bond-xmit-hash-policy layer2+3
После этого каждая VM в конфиге получает net0: virtio,bridge=vmbr0,tag=<vlan>. Тегирование работает прозрачно, физический коммутатор должен отдавать trunk с нужными VLAN.
Реальный кейс: миграция банковского партнёра на 42 VM
В январе 2026 года к нам пришёл финансовый партнёр — офис в Москве на 180 рабочих мест, VMware vSphere 7.0 на 3 хостах Dell R740, 42 VM общим объёмом 18 ТБ. После пересмотра лицензий Broadcom годовая стоимость выросла с 400 000 до 2 200 000 руб.
План:
- Собрали новый Proxmox-кластер из 3 нод Dell Xeon Platinum 8280, 384 ГБ RAM, 6× 3.84 ТБ NVMe ZFS RAID10, 40G Mellanox напрямую между нодами.
- Развернули PBS (Proxmox Backup Server) на отдельной ноде в дата-центре МТС с 120 ТБ HDD, соединение через 40G-линк.
- Миграцию делили на 6 волн по 7 VM за окно обслуживания (суббота ночь, 4 часа).
- VM-шаблоны ServicePack с virtio-drivers подготовили заранее.
- Тестовый прогон на двух VM для отладки — MySQL и Windows Terminal Server.
- Live-production миграция прошла за 6 недель, без внеплановых простоев.
Итого: экономия на лицензиях — 1.8 млн руб/год, стоимость проекта (новое железо + работы) — 4.2 млн руб, окупаемость 2.3 года. После миграции средний load на Proxmox-нодах — 35–45%, резерв 50%+ под рост. За 2 месяца после завершения — ни одного инцидента, связанного с Proxmox.
Типичные ошибки при миграции
- Забывают про Windows BSOD 0x7B. Без virtio-drivers, установленных на Windows до экспорта, VM не стартует. Ставить virtio в ESXi-гостях заранее.
- VMDK не конвертируется из ovftool. В старых версиях VMware OVF-экспорт может создать stream-optimized VMDK, который qemu-img не читает. Конвертируйте в normal VMDK сначала.
- UEFI NVRAM теряется. При импорте OVF настройки UEFI-загрузки обнуляются. Для Secure Boot VM нужно заново добавить загрузочную запись.
- MAC-адрес изменился. После импорта Proxmox выдаёт новый MAC. Либо руками указываете старый MAC в конфиге, либо меняете на клиенте DHCP-резервации.
- Нет плана отката. Перед миграцией — обязательный snapshot и полный бэкап в Veeam CE. При проблеме — откат за 5 минут.
Проведём миграцию с VMware на Proxmox под ключ
Полный проект миграции с vSphere на Proxmox VE: аудит, закупка/подбор оборудования Dell или HP, развёртывание кластера с ZFS или Ceph, PBS-бэкапы в дата-центр МТС, миграция всех VM с минимальным простоем. От 20 до 200 VM. Фикс-цена проекта после аудита.
Телефон: +7 903 729-62-41
Telegram: @ITfresh_Boss
Семёнов Евгений Сергеевич, директор АйТи Фреш
FAQ — частые вопросы
- Почему мигрируют с VMware на Proxmox?
- После покупки VMware Broadcom в ноябре 2023 подписочная модель заменила perpetual-лицензии, цены выросли в 3-5 раз. Proxmox VE — Open Source, бесплатный, нативно поддерживает всё то же.
- Как переносить VM — OVF или live?
- Для 95% случаев — OVF-экспорт из vSphere и импорт в Proxmox через qm importovf. Live-миграция невозможна между гипервизорами. Простой — 15-60 минут на штуку.
- Работают ли VMware Tools в Proxmox?
- Нет. После миграции нужно заменить VMware Tools на QEMU Guest Agent. На Windows — устанавливается virtio-win.iso, на Linux — пакет qemu-guest-agent.
- Совместимы ли виртуальные диски?
- VMDK конвертируется в qcow2 или raw командой qemu-img. В составе OVF-экспорта VMDK уже включены. Proxmox 8.2+ поддерживает прямое добавление ESXi как storage.
- Сколько стоит Proxmox против VMware?
- Proxmox VE бесплатный. Enterprise repository — 110 евро за сокет в год. VMware vSphere Standard после Broadcom — от 50 USD за ядро. На кластере 3 хоста экономия 2-3 миллиона рублей в год.