PROXMOX-HAMMER! Endlich macht der Cluster selber Ordnung
Wer schon mal einen Proxmox-Cluster mit drei oder mehr Knoten betrieben hat, kennt das Problem: Nach einem Reboot, Patch oder Hardware-Tausch sitzen plötzlich 15 VMs auf einem Node, während der zweite Node Däumchen dreht. Bisher war das ein klassisches Manueller-Eingriff-Problem. Migrieren, schubsen, Affinity-Regeln pflegen — alles per Hand.
Mit Proxmox VE 9.1.8 ist Schluss damit. Das Update vom 22. April 2026 bringt automatisches HA-Rebalancing — und das ist für jeden Homelab-Hobbyisten und für jeden Admin im Mittelstand ein echter Befreiungsschlag.
Hinweis: Dieser Beitrag enthält Affiliate-Links (mit * gekennzeichnet). Kaufst du über einen dieser Links, erhalte ich eine kleine Provision — für dich ändert sich der Preis nicht.
SCHOCK: Was bisher fehlte — und warum es nervte
Proxmox kann seit Jahren HA (High Availability): Stirbt ein Knoten, springen die VMs auf einem anderen wieder an. Was Proxmox bisher NICHT konnte: nach dem Recovery die Last sauber neu verteilen. Wenn Node 1 stirbt und seine 8 VMs nach Node 2 springen, bleiben sie da — auch wenn Node 1 wieder live ist. Resultat: ungleichmäßige RAM- und CPU-Last, schlechte Performance, frustrierter Admin.
VMware vSphere kann das mit DRS seit 2009. XenServer hat Workload Balancing. Proxmox-Anwender mussten dafür entweder selbst Skripte schreiben oder mit Tools wie ProxLB nachbauen. Mit 9.1.8 fällt diese Bastelei weg.
UNGLAUBLICH: So funktioniert das neue Auto-Rebalancing
Du definierst pro HA-Gruppe eine Rebalancing-Policy. Drei Modi stehen zur Wahl:
- off — wie bisher, manuelles Schubsen.
- preferred — VMs wandern zurück auf ihren ursprünglichen Node, sobald er gesund ist.
- balanced — der Cluster verteilt anhand von CPU- und RAM-Auslastung selbstständig neu.
Im Modus balanced schaut der HA-Manager regelmäßig auf aggregierte Last-Metriken jedes Nodes und wählt das Ziel mit der besten Aufnahmequote. Dazu gibt es Schwellenwerte: Erst ab z. B. 20 % Lastdifferenz wird verschoben — sonst würde der Cluster permanent VMs hin- und herschubsen.
SO AKTIVIERST du das in 5 MINUTEN
Du brauchst Proxmox VE 9.1.8 oder neuer. Update mit:
apt update && apt full-upgrade -y
Danach ins Cluster-Web-UI: Datacenter → HA → Groups. Wähle deine Gruppe oder lege eine neue an. Im Bearbeitungsdialog siehst du jetzt das neue Drop-down „Rebalancing Mode“. Setze auf balanced, speichern, fertig.
Wer’s lieber per CLI mag:
ha-manager groupset homelab --rebalance balanced
Ab sofort verteilt der Cluster die HA-VMs deiner Gruppe automatisch.
GEFAHR! Was du vorher beachten musst
Drei Stolperfallen, die niemand mag:
- Shared Storage Pflicht. Live-Migration braucht Ceph, NFS oder iSCSI. Auf reinem Local-LVM funktioniert das Rebalancing NICHT — dann zählt nur „preferred“.
- Affinity beachten. Wenn du zwei VMs zwingend auf demselben Node brauchst (z. B. Datenbank + App), setze eine Affinity-Regel. Ohne sie kann der Balancer die beiden Trennen.
- Backup-Fenster blockieren. Während PBS-Backups laufen, willst du keine Migration. Pro VM ein Tag „backup“ setzen und in der Rebalance-Policy ausnehmen.
EXTRA-TIPP: Im Homelab erstmal „preferred“ testen
Wer nur zwei oder drei Mini-PCs als Cluster betreibt (Hallo Intel N100!), startet besser mit preferred. Damit landen VMs nach jedem Reboot wieder dort, wo du sie eingeplant hast. balanced macht erst ab vier Nodes mit ungleicher Hardware richtig Spaß.
SO BAUST du dir den passenden Test-Cluster
Wenn du das Feature in einem Lab nachstellen willst, reicht eine simple Kombination: drei Mini-PCs wie der Minisforum UM790 Pro* mit jeweils 32 GB RAM (z. B. ein Crucial Pro DDR5 32GB Kit*), eine 2-TB-NVMe pro Knoten, dazu ein 2,5-Gigabit-Switch. Auf den Knoten läuft Proxmox 9.1.8, dahinter Ceph als Shared Storage. Dann ein paar Test-VMs anlegen, gezielt einen Knoten neu starten, das Rebalancing zuschauen.
FAZIT: Endlich erwachsen
Proxmox VE 9.1.8 ist eines dieser unscheinbaren Punkt-Punkt-Updates, die hinten raus den größten Unterschied machen. Wer professionell oder im großen Homelab fährt, gewinnt mit dem Auto-Rebalancing massiv Komfort. Und das alles, ohne irgendein Plugin zu installieren oder ein Bash-Skript zu schreiben. Update einspielen, Policy umstellen — und der Cluster kümmert sich ab jetzt um sich selbst.