Proxmox VE 9.1 OCI Container SDN
|

Proxmox VE 9.1: OCI-Container, SDN-Verbesserungen und Nested Virtualization

Proxmox VE 9.1 bringt entscheidende Neuerungen für Homelab-Nutzer: OCI-Container-Support, verbessertes Software-Defined Networking und Nested Virtualization machen die beliebte Virtualisierungsplattform noch leistungsfähiger. In diesem Artikel stelle ich die wichtigsten Neuerungen vor und zeige, was sie für dein Homelab bedeuten.

OCI-Container-Support: Docker Hub direkt in Proxmox

⚠️ Tech Preview: Der OCI-Container-Support in Proxmox VE 9.1 ist als Tech Preview verfügbar und noch nicht für den Produktionseinsatz empfohlen. Die Funktion ist experimentell – Syntax und Verhalten können sich in zukünftigen Versionen ändern.

Das wohl spannendste neue Feature in Proxmox VE 9.1 ist der native OCI-Container-Support. Bisher musstest du LXC-Container-Templates manuell herunterladen oder aus der Proxmox-Vorlage-Bibliothek beziehen. Mit OCI-Support kannst du nun Container-Images direkt aus Container-Registries laden.

Was bedeutet das konkret für dein Homelab?

  • Keine manuelle Template-Suche mehr: Greife direkt auf die riesige Bibliothek von Docker Hub zu
  • Immer aktuelle Images: Pull direkt die latest-Tags
  • Konsistente Umgebungen: Gleiche Images wie in deiner Docker-Umgebung als LXC nutzen
  • Leichtgewichtige Alternative zu VMs: OCI-Container starten in Sekunden, verbrauchen weniger RAM als vollständige VMs

OCI-Container über die GUI erstellen

Da sich die CLI-Syntax im Tech-Preview-Stadium noch ändert, ist der empfohlene Weg aktuell über die Proxmox-Weboberfläche:

  1. Gehe zu Node → Create CT
  2. Klicke auf den Template-Bereich und wähle „OCI Image“ als Quelle
  3. Gib die Registry-URL ein, z.B. docker.io/library/ubuntu:24.04 oder ghcr.io/home-assistant/home-assistant:latest
  4. Konfiguriere Ressourcen (RAM, Disk, Netzwerk) wie bei einem normalen LXC-Container
  5. Starte den Container – Proxmox lädt das Image automatisch herunter

Hinweis zur CLI: Der pct create-Befehl erwartet als zweites Argument einen lokalen Template-Pfad. Das direkte Übergeben von Registry-URLs wie docker.io/library/ubuntu:24.04 wird von der aktuellen pct-Version nicht stabil unterstützt. Nutze für OCI-Images die GUI oder warte auf die stabile CLI-Integration in einer kommenden Version.

OCI vs. Docker-native Container: Die wichtigsten Unterschiede

Obwohl Proxmox VE 9.1 jetzt OCI-Images nutzen kann, gibt es wesentliche Unterschiede zu Docker-nativen Containern, die du kennen solltest:

  • Kernel-Sharing: Proxmox LXC-Container teilen sich den Host-Kernel – Docker-Container unter Docker Engine laufen ebenfalls auf dem Host-Kernel, aber mit stärkerer Namespace-Isolation durch den Docker-Daemon.
  • Keine Docker-Compose-Unterstützung: In Proxmox OCI-Containern steht Docker Compose nicht nativ zur Verfügung. Für Multi-Container-Stacks brauchst du entweder mehrere LXC-Container oder eine VM mit Docker.
  • Init-System: Viele Docker-Images sind nicht für systemd ausgelegt. Proxmox LXC erwartet oft ein vollständiges Init-System. Nutze spezielle LXC-taugliche Images (z.B. lscr.io/linuxserver/*) oder konfiguriere den Container entsprechend.
  • Persistente Volumes: Konfiguriere Bind-Mounts über pct set 200 --mp0 /mnt/data,mp=/data statt Docker-Volumes.

OCI-Registry-Authentifizierung

Für private Registries oder um Rate-Limits von Docker Hub zu umgehen, kannst du Authentifizierung hinterlegen:

# Konfiguration unter /etc/pve/lxc-registry.conf
registry docker.io
  username dein-dockerhub-user
  password dein-access-token

# Oder für GitHub Container Registry
registry ghcr.io
  username dein-github-user
  password ghp_deinGitHubPersonalToken

Wichtiger Hinweis: Proxmox-LXC-Container basieren weiterhin auf dem Host-Kernel. Sie sind keine isolierten Docker-Container wie unter Docker Engine. Für vollständige Isolation brauchst du weiterhin VMs oder Docker innerhalb eines LXC-Containers.

Verbessertes SDN: Software-Defined Networking mit neuer GUI

Proxmox VE 9.1 überarbeitet das Software-Defined Networking (SDN) erheblich. SDN ermöglicht es, virtuelle Netzwerke software-seitig zu definieren – ideal für komplexe Homelab-Setups mit mehreren VMs und Netzwerksegmenten.

Neue SDN-GUI-Übersicht

Die neue Weboberfläche für SDN bietet:

  • Übersichtliche Topologie-Ansicht: Sieh auf einen Blick, welche VMs mit welchen virtuellen Netzwerken verbunden sind
  • Integriertes Monitoring: Traffic-Statistiken pro SDN-Zone direkt im Dashboard
  • Verbessertes Fehler-Reporting: Klare Fehlermeldungen statt kryptischer Log-Ausgaben

Praktisches Beispiel: VLANs mit SDN einrichten

In der neuen Oberfläche richtest du VLANs direkt ohne komplizierte manuelle Konfiguration ein:

  1. Gehe zu Datacenter → SDN → Zones → Add → VLAN
  2. Vergib einen Namen (z.B. „homelab-vlan“)
  3. Wähle das physische Interface (z.B. enp3s0)
  4. Erstelle VNets: SDN → VNets → Add mit VLAN-Tag
  5. Weise VMs das VNet als Netzwerk-Interface zu

Typisches Homelab-Szenario: IoT und Management sauber trennen

Ein klassisches Homelab-Szenario mit Proxmox SDN ist die Netzwerksegmentierung in drei Zonen:

  • VLAN 10 – Management: Proxmox-Webinterface, SSH, Monitoring (Grafana, Prometheus) – streng restriktiert
  • VLAN 20 – Server: Dienste wie Vaultwarden, Home Assistant, Nextcloud
  • VLAN 30 – IoT: Smart-Home-Geräte, Kameras, Sensoren – kein Internetzugang, nur lokale Kommunikation

Mit SDN in Proxmox VE 9.1 konfigurierst du diese Segmentierung vollständig in der Weboberfläche – kein manuelles Editieren von Netzwerk-Config-Dateien mehr. Jede VM erhält das passende VNet als Netzwerk-Interface, und die Firewall-Regeln zwischen den Zonen verwaltest du direkt im Proxmox-Datacenter-Bereich.

Nested Virtualization: VMs in VMs

Proxmox VE 9.1 führt einen neuen, dedizierten nested-virt vCPU-Flag ein, der Nested Virtualization aktiviert. VMs können damit selbst Virtualisierungserweiterungen nutzen. Das ist besonders nützlich für:

  • Entwickler und CI/CD: Kubernetes-in-VM testen ohne dedizierte Hardware
  • Security-Research: Malware-Analyse in isolierten VM-Sandboxen
  • Homelab-Training: Proxmox-in-Proxmox für das Lernen ohne zweiten Host

Nested Virtualization aktivieren

Proxmox VE 9.1 hat einen dedizierten nested-virt-Flag eingeführt, der die empfohlene Methode für Nested Virtualization darstellt:

# Empfohlene Methode in Proxmox VE 9.1 – neuer nested-virt Flag:
qm set 100 --cpu host,flags=+nested-virt

# Anschließend VM neu starten, damit der Flag aktiv wird
qm reboot 100

Danach prüfst du in der VM, ob die Virtualisierungserweiterungen verfügbar sind:

grep -c "vmx\|svm" /proc/cpuinfo

Ein Wert > 0 bedeutet, dass Nested Virtualization aktiv ist. Der neue nested-virt-Flag ist plattformübergreifend (AMD + Intel) und ist der offiziell empfohlene Weg in Proxmox VE 9.1 – der ältere Ansatz mit expliziten flags=+svm oder flags=+vmx funktioniert zwar noch, wird aber nicht mehr als primäre Methode empfohlen.

Voraussetzungen und Einschränkungen

Beachte folgende Punkte, bevor du Nested Virtualization aktivierst:

  • CPU-Anforderungen: Der Host-Prozessor muss Intel VT-x (vmx) oder AMD-V (svm) unterstützen und diese Funktion muss im BIOS/UEFI aktiviert sein. Ältere CPUs vor ca. 2010 unterstützen möglicherweise kein Nested Virt.
  • Performance-Overhead: Nested VMs haben spürbaren Performance-Overhead gegenüber nativen VMs – plane für produktive Workloads entsprechend mehr vCPUs und RAM ein.
  • Eingeschränkte Live-Migration: VMs mit aktiviertem host-CPU-Typ können nicht auf Hosts mit anderer CPU-Architektur migriert werden. Verwende für Cluster-Setups den CPU-Typ x86-64-v2-AES als Kompromiss.
  • Hypervisor-Erkennung: Manche Anwendungen (Antivirus, DRM) verweigern den Betrieb, wenn sie eine Hypervisor-Umgebung erkennen. Nested VMs erhöhen dieses Risiko.

Weitere Verbesserungen in Proxmox VE 9.1

Verbesserte Backup-Komprimierung

Proxmox 9.1 verbessert die Backup-Performance durch optimierte Zstandard-Komprimierung (zstd). Backups sind bis zu 30% schneller bei gleicher oder besserer Kompressionsrate. Konfiguriere die Komprimierungsstufe in Datacenter → Storage → Backup Settings.

Erweiterte Ceph-Integration

Der Ceph-Manager in Proxmox 9.1 zeigt detailliertere IOPS- und Latenz-Metriken pro OSD direkt in der Weboberfläche. Das vereinfacht die Performance-Analyse erheblich, ohne dass du separate Ceph-Monitoring-Tools benötigst.

Kernel-Update

Proxmox VE 9.1 baut auf dem Linux-Kernel 6.11 auf. Neue Hardware-Unterstützung umfasst verbesserte Treiber für moderne AMD- und Intel-Prozessoren sowie neue NVMe-Protokoll-Optimierungen für schnellere Storage-Performance.

Upgrade-Anleitung: Proxmox VE 9.0 auf 9.1

Das Upgrade von Proxmox VE 9.0 auf 9.1 ist unkompliziert:

# Repositories aktualisieren
apt update

# System-Upgrade durchführen
apt dist-upgrade

# Neustart
reboot

Wichtige Hinweise vor dem Upgrade:

  • Erstelle Snapshots oder Backups aller kritischen VMs
  • Bei einem Cluster: Upgrade Node für Node, nie alle gleichzeitig
  • Prüfe die Release Notes auf inkompatible Änderungen

Troubleshooting: Häufige Probleme beim Upgrade

Beim Upgrade auf Proxmox VE 9.1 können folgende Probleme auftreten:

SDN-Konfiguration nach Upgrade nicht geladen

Wenn nach dem Upgrade deine SDN-Zones fehlen oder inaktiv sind, führe folgenden Befehl aus:

pvesh set /nodes/<nodename>/network --apply

Alternativ hilft ein Neustart des pve-network.service:

systemctl restart pve-network.service

OCI-Container starten nicht

Falls neu erstellte OCI-Container nicht starten, prüfe:

  • Ob das Image amd64-kompatibel ist (ARM-Images laufen nicht auf x86-Hosts)
  • Ob lxc-utils auf die aktuelle Version aktualisiert wurde: apt install --only-upgrade lxc-utils
  • Die Logs im Proxmox-Tasklog (Node → Tasks) für detaillierte Fehlermeldungen
  • Da OCI-Support als Tech Preview eingestuft ist, kann die Dokumentation unter pve.proxmox.com/wiki aktuelle Hinweise enthalten

Kernel-Module nach Upgrade fehlen

Wenn nach dem Reboot Warnungen zu fehlenden Kernel-Modulen erscheinen:

# Kernel-Module neu bauen (z.B. für ZFS oder DKMS-Module)
update-initramfs -u -k all

Fazit: Proxmox VE 9.1 lohnt sich für das Homelab

Proxmox VE 9.1 bringt mit OCI-Container-Support (Tech Preview), dem verbesserten SDN und dem neuen Nested-Virtualization-Flag drei Features, die das Homelab deutlich flexibler machen. Besonders der OCI-Support ist vielversprechend – auch wenn er noch als Tech Preview gilt, zeigt er die Richtung: Die riesige Bibliothek an Container-Images wird bald nativ zugänglich sein. Das Update lohnt sich – und dank des einfachen Upgrade-Prozesses sowie der hilfreichen Troubleshooting-Hinweise steht dem schnellen Umstieg nichts im Weg.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert