Proxmox VE 9.1: OCI-Container, SDN-Verbesserungen und Nested Virtualization
Proxmox VE 9.1 bringt entscheidende Neuerungen für Homelab-Nutzer: OCI-Container-Support, verbessertes Software-Defined Networking und Nested Virtualization machen die beliebte Virtualisierungsplattform noch leistungsfähiger. In diesem Artikel stelle ich die wichtigsten Neuerungen vor und zeige, was sie für dein Homelab bedeuten.
OCI-Container-Support: Docker Hub direkt in Proxmox
⚠️ Tech Preview: Der OCI-Container-Support in Proxmox VE 9.1 ist als Tech Preview verfügbar und noch nicht für den Produktionseinsatz empfohlen. Die Funktion ist experimentell – Syntax und Verhalten können sich in zukünftigen Versionen ändern.
Das wohl spannendste neue Feature in Proxmox VE 9.1 ist der native OCI-Container-Support. Bisher musstest du LXC-Container-Templates manuell herunterladen oder aus der Proxmox-Vorlage-Bibliothek beziehen. Mit OCI-Support kannst du nun Container-Images direkt aus Container-Registries laden.
Was bedeutet das konkret für dein Homelab?
- Keine manuelle Template-Suche mehr: Greife direkt auf die riesige Bibliothek von Docker Hub zu
- Immer aktuelle Images: Pull direkt die latest-Tags
- Konsistente Umgebungen: Gleiche Images wie in deiner Docker-Umgebung als LXC nutzen
- Leichtgewichtige Alternative zu VMs: OCI-Container starten in Sekunden, verbrauchen weniger RAM als vollständige VMs
OCI-Container über die GUI erstellen
Da sich die CLI-Syntax im Tech-Preview-Stadium noch ändert, ist der empfohlene Weg aktuell über die Proxmox-Weboberfläche:
- Gehe zu Node → Create CT
- Klicke auf den Template-Bereich und wähle „OCI Image“ als Quelle
- Gib die Registry-URL ein, z.B.
docker.io/library/ubuntu:24.04oderghcr.io/home-assistant/home-assistant:latest - Konfiguriere Ressourcen (RAM, Disk, Netzwerk) wie bei einem normalen LXC-Container
- Starte den Container – Proxmox lädt das Image automatisch herunter
Hinweis zur CLI: Der pct create-Befehl erwartet als zweites Argument einen lokalen Template-Pfad. Das direkte Übergeben von Registry-URLs wie docker.io/library/ubuntu:24.04 wird von der aktuellen pct-Version nicht stabil unterstützt. Nutze für OCI-Images die GUI oder warte auf die stabile CLI-Integration in einer kommenden Version.
OCI vs. Docker-native Container: Die wichtigsten Unterschiede
Obwohl Proxmox VE 9.1 jetzt OCI-Images nutzen kann, gibt es wesentliche Unterschiede zu Docker-nativen Containern, die du kennen solltest:
- Kernel-Sharing: Proxmox LXC-Container teilen sich den Host-Kernel – Docker-Container unter Docker Engine laufen ebenfalls auf dem Host-Kernel, aber mit stärkerer Namespace-Isolation durch den Docker-Daemon.
- Keine Docker-Compose-Unterstützung: In Proxmox OCI-Containern steht Docker Compose nicht nativ zur Verfügung. Für Multi-Container-Stacks brauchst du entweder mehrere LXC-Container oder eine VM mit Docker.
- Init-System: Viele Docker-Images sind nicht für systemd ausgelegt. Proxmox LXC erwartet oft ein vollständiges Init-System. Nutze spezielle LXC-taugliche Images (z.B.
lscr.io/linuxserver/*) oder konfiguriere den Container entsprechend. - Persistente Volumes: Konfiguriere Bind-Mounts über
pct set 200 --mp0 /mnt/data,mp=/datastatt Docker-Volumes.
OCI-Registry-Authentifizierung
Für private Registries oder um Rate-Limits von Docker Hub zu umgehen, kannst du Authentifizierung hinterlegen:
# Konfiguration unter /etc/pve/lxc-registry.conf
registry docker.io
username dein-dockerhub-user
password dein-access-token
# Oder für GitHub Container Registry
registry ghcr.io
username dein-github-user
password ghp_deinGitHubPersonalToken
Wichtiger Hinweis: Proxmox-LXC-Container basieren weiterhin auf dem Host-Kernel. Sie sind keine isolierten Docker-Container wie unter Docker Engine. Für vollständige Isolation brauchst du weiterhin VMs oder Docker innerhalb eines LXC-Containers.
Verbessertes SDN: Software-Defined Networking mit neuer GUI
Proxmox VE 9.1 überarbeitet das Software-Defined Networking (SDN) erheblich. SDN ermöglicht es, virtuelle Netzwerke software-seitig zu definieren – ideal für komplexe Homelab-Setups mit mehreren VMs und Netzwerksegmenten.
Neue SDN-GUI-Übersicht
Die neue Weboberfläche für SDN bietet:
- Übersichtliche Topologie-Ansicht: Sieh auf einen Blick, welche VMs mit welchen virtuellen Netzwerken verbunden sind
- Integriertes Monitoring: Traffic-Statistiken pro SDN-Zone direkt im Dashboard
- Verbessertes Fehler-Reporting: Klare Fehlermeldungen statt kryptischer Log-Ausgaben
Praktisches Beispiel: VLANs mit SDN einrichten
In der neuen Oberfläche richtest du VLANs direkt ohne komplizierte manuelle Konfiguration ein:
- Gehe zu Datacenter → SDN → Zones → Add → VLAN
- Vergib einen Namen (z.B. „homelab-vlan“)
- Wähle das physische Interface (z.B. enp3s0)
- Erstelle VNets: SDN → VNets → Add mit VLAN-Tag
- Weise VMs das VNet als Netzwerk-Interface zu
Typisches Homelab-Szenario: IoT und Management sauber trennen
Ein klassisches Homelab-Szenario mit Proxmox SDN ist die Netzwerksegmentierung in drei Zonen:
- VLAN 10 – Management: Proxmox-Webinterface, SSH, Monitoring (Grafana, Prometheus) – streng restriktiert
- VLAN 20 – Server: Dienste wie Vaultwarden, Home Assistant, Nextcloud
- VLAN 30 – IoT: Smart-Home-Geräte, Kameras, Sensoren – kein Internetzugang, nur lokale Kommunikation
Mit SDN in Proxmox VE 9.1 konfigurierst du diese Segmentierung vollständig in der Weboberfläche – kein manuelles Editieren von Netzwerk-Config-Dateien mehr. Jede VM erhält das passende VNet als Netzwerk-Interface, und die Firewall-Regeln zwischen den Zonen verwaltest du direkt im Proxmox-Datacenter-Bereich.
Nested Virtualization: VMs in VMs
Proxmox VE 9.1 führt einen neuen, dedizierten nested-virt vCPU-Flag ein, der Nested Virtualization aktiviert. VMs können damit selbst Virtualisierungserweiterungen nutzen. Das ist besonders nützlich für:
- Entwickler und CI/CD: Kubernetes-in-VM testen ohne dedizierte Hardware
- Security-Research: Malware-Analyse in isolierten VM-Sandboxen
- Homelab-Training: Proxmox-in-Proxmox für das Lernen ohne zweiten Host
Nested Virtualization aktivieren
Proxmox VE 9.1 hat einen dedizierten nested-virt-Flag eingeführt, der die empfohlene Methode für Nested Virtualization darstellt:
# Empfohlene Methode in Proxmox VE 9.1 – neuer nested-virt Flag:
qm set 100 --cpu host,flags=+nested-virt
# Anschließend VM neu starten, damit der Flag aktiv wird
qm reboot 100
Danach prüfst du in der VM, ob die Virtualisierungserweiterungen verfügbar sind:
grep -c "vmx\|svm" /proc/cpuinfo
Ein Wert > 0 bedeutet, dass Nested Virtualization aktiv ist. Der neue nested-virt-Flag ist plattformübergreifend (AMD + Intel) und ist der offiziell empfohlene Weg in Proxmox VE 9.1 – der ältere Ansatz mit expliziten flags=+svm oder flags=+vmx funktioniert zwar noch, wird aber nicht mehr als primäre Methode empfohlen.
Voraussetzungen und Einschränkungen
Beachte folgende Punkte, bevor du Nested Virtualization aktivierst:
- CPU-Anforderungen: Der Host-Prozessor muss Intel VT-x (vmx) oder AMD-V (svm) unterstützen und diese Funktion muss im BIOS/UEFI aktiviert sein. Ältere CPUs vor ca. 2010 unterstützen möglicherweise kein Nested Virt.
- Performance-Overhead: Nested VMs haben spürbaren Performance-Overhead gegenüber nativen VMs – plane für produktive Workloads entsprechend mehr vCPUs und RAM ein.
- Eingeschränkte Live-Migration: VMs mit aktiviertem
host-CPU-Typ können nicht auf Hosts mit anderer CPU-Architektur migriert werden. Verwende für Cluster-Setups den CPU-Typx86-64-v2-AESals Kompromiss. - Hypervisor-Erkennung: Manche Anwendungen (Antivirus, DRM) verweigern den Betrieb, wenn sie eine Hypervisor-Umgebung erkennen. Nested VMs erhöhen dieses Risiko.
Weitere Verbesserungen in Proxmox VE 9.1
Verbesserte Backup-Komprimierung
Proxmox 9.1 verbessert die Backup-Performance durch optimierte Zstandard-Komprimierung (zstd). Backups sind bis zu 30% schneller bei gleicher oder besserer Kompressionsrate. Konfiguriere die Komprimierungsstufe in Datacenter → Storage → Backup Settings.
Erweiterte Ceph-Integration
Der Ceph-Manager in Proxmox 9.1 zeigt detailliertere IOPS- und Latenz-Metriken pro OSD direkt in der Weboberfläche. Das vereinfacht die Performance-Analyse erheblich, ohne dass du separate Ceph-Monitoring-Tools benötigst.
Kernel-Update
Proxmox VE 9.1 baut auf dem Linux-Kernel 6.11 auf. Neue Hardware-Unterstützung umfasst verbesserte Treiber für moderne AMD- und Intel-Prozessoren sowie neue NVMe-Protokoll-Optimierungen für schnellere Storage-Performance.
Upgrade-Anleitung: Proxmox VE 9.0 auf 9.1
Das Upgrade von Proxmox VE 9.0 auf 9.1 ist unkompliziert:
# Repositories aktualisieren
apt update
# System-Upgrade durchführen
apt dist-upgrade
# Neustart
reboot
Wichtige Hinweise vor dem Upgrade:
- Erstelle Snapshots oder Backups aller kritischen VMs
- Bei einem Cluster: Upgrade Node für Node, nie alle gleichzeitig
- Prüfe die Release Notes auf inkompatible Änderungen
Troubleshooting: Häufige Probleme beim Upgrade
Beim Upgrade auf Proxmox VE 9.1 können folgende Probleme auftreten:
SDN-Konfiguration nach Upgrade nicht geladen
Wenn nach dem Upgrade deine SDN-Zones fehlen oder inaktiv sind, führe folgenden Befehl aus:
pvesh set /nodes/<nodename>/network --apply
Alternativ hilft ein Neustart des pve-network.service:
systemctl restart pve-network.service
OCI-Container starten nicht
Falls neu erstellte OCI-Container nicht starten, prüfe:
- Ob das Image
amd64-kompatibel ist (ARM-Images laufen nicht auf x86-Hosts) - Ob
lxc-utilsauf die aktuelle Version aktualisiert wurde:apt install --only-upgrade lxc-utils - Die Logs im Proxmox-Tasklog (Node → Tasks) für detaillierte Fehlermeldungen
- Da OCI-Support als Tech Preview eingestuft ist, kann die Dokumentation unter pve.proxmox.com/wiki aktuelle Hinweise enthalten
Kernel-Module nach Upgrade fehlen
Wenn nach dem Reboot Warnungen zu fehlenden Kernel-Modulen erscheinen:
# Kernel-Module neu bauen (z.B. für ZFS oder DKMS-Module)
update-initramfs -u -k all
Fazit: Proxmox VE 9.1 lohnt sich für das Homelab
Proxmox VE 9.1 bringt mit OCI-Container-Support (Tech Preview), dem verbesserten SDN und dem neuen Nested-Virtualization-Flag drei Features, die das Homelab deutlich flexibler machen. Besonders der OCI-Support ist vielversprechend – auch wenn er noch als Tech Preview gilt, zeigt er die Richtung: Die riesige Bibliothek an Container-Images wird bald nativ zugänglich sein. Das Update lohnt sich – und dank des einfachen Upgrade-Prozesses sowie der hilfreichen Troubleshooting-Hinweise steht dem schnellen Umstieg nichts im Weg.
