KI-HAMMER im Homelab! Du willst ChatGPT-Power – aber KEIN Abo, KEINE Cloud und ZERO Datenschutz-Ärger? In diesem Mega-Tutorial zeige ich dir, wie du in unter 30 Minuten eine komplett private KI-Umgebung aufsetzt!
Ollama + Open WebUI – die unschlagbare Kombi für deinen eigenen ChatGPT-Klon!
Was Ollama ist — die kurze Einordnung
Ollama ist ein Open-Source-Tool, das große Sprachmodelle (LLMs) LOKAL auf deinem Rechner betreibt! Im Gegensatz zu cloudbasierten KI-Diensten laufen ALLE Berechnungen auf deiner eigenen Hardware! Deine Daten verlassen NIEMALS dein Netzwerk!
Die MEGA-Vorteile:
- 100 % kostenlos – keine API-Kosten, keine Abos!
- Datenschutz – alles bleibt lokal!
- Offline-fähig – läuft ohne Internet!
- Flexible Modellauswahl – Llama 3.3, Qwen 2.5, Gemma 4!
- Einfache Installation – EIN Befehl und du startest!
Was Open WebUI ist und warum es passt
Open WebUI ist die moderne Weboberfläche für Ollama – sieht aus wie ChatGPT! Du bekommst:
- Gesprächshistorie!
- Markdown-Rendering!
- Datei-Upload!
- Bild-Generierung!
Stand April 2026: ÜBER 210.000 GitHub-Stars! Eines der am schnellsten wachsenden Open-Source-Projekte weltweit!
Hardware-Check — was du wirklich brauchst
Ollama läuft auf fast jeder modernen Hardware – aber je mehr VRAM, desto größer die Modelle:
- Minimum: 8 GB RAM, 10 GB Festplatte, moderne CPU!
- Empfohlen (CPU-only): 16 GB RAM, Llama 3.2 3B oder Qwen 2.5 7B!
- GPU NVIDIA: RTX 3060 (12 GB VRAM) für 13B-Modelle, RTX 4090 (24 GB) für 70B!
- GPU AMD: RX 7900 XTX mit ROCm-Support!
- Mac (Apple Silicon): M1/M2/M3 mit 16+ GB Unified Memory – sehr empfehlenswert!
OS: Linux, macOS, Windows – alles dabei!
Schritt 1: Ollama installieren
Linux / macOS – EIN Befehl reicht:
curl -fsSL https://ollama.com/install.sh | sh
Danach startet Ollama automatisch als Systemdienst und lauscht auf http://localhost:11434!
Windows: Installationsprogramm von ollama.com/download laden – fertig!
Check:
ollama --version
Schritt 2: Dein erstes KI-Modell laden
Mit ollama pull lädst du Modelle herunter! Meine Top-Empfehlungen für 2026:
# Für schwache Hardware (8 GB RAM, CPU)
ollama pull llama3.2:3b
ollama pull qwen2.5:7b
# Für mittlere Hardware (16 GB RAM)
ollama pull llama3.3:8b
ollama pull gemma4:12b
# Für leistungsstarke GPU (24 GB VRAM)
ollama pull llama3.3:70b
ollama pull qwen2.5:72b
# Für Coding-Aufgaben
ollama pull codellama:13b
Sofort loschatten:
ollama run llama3.3:8b
# Beende mit: /bye
Schritt 3: Open WebUI installieren
Der schnellste Weg: Docker Compose!
Mit NVIDIA-GPU:
docker run -d -p 3000:8080 \
--gpus all \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:cuda
Ohne GPU (CPU-only):
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
Ohne Docker (per pip):
pip install open-webui
open-webui serve
Der erste Chat — dein Ersatz läuft
Öffne nun http://localhost:3000 im Browser! Beim ersten Start:
- Admin-Account erstellen!
- Modell auswählen aus dem Dropdown!
- Loschatten wie bei ChatGPT!
Tipps für mehr Komfort und Performance
- GPU-Acceleration nutzen: Bei NVIDIA unbedingt die CUDA-Variante!
- Multiple Modelle parallel: Für schnelle Aufgaben Llama 3.2 3B, für komplexe 13B oder 70B!
- Context-Window nutzen: Llama 3.3 packt 128k Tokens – riesige Dokumente am Stück!
- System-Prompts setzen: Gib Ollama eine Persönlichkeit – IT-Berater, Übersetzer, Code-Reviewer!
Fazit — und welche Erweiterungen sich lohnen
Keine Ausreden mehr: Privacy-KI ist 2026 einfacher denn je! In 30 Minuten bist du von Null zu eigenem ChatGPT-Klon – KOMPLETT privat, KOMPLETT kostenlos!
Mein Tipp: Heute Ollama installieren, Llama 3.3:8b ausprobieren, morgen mit Open WebUI die hübsche Oberfläche draufsetzen! In einem Wochenende bist du KI-autark!
Auf Lapalutschi.de kommt bald der große Modell-Vergleich – wer liefert die besten deutschen Antworten lokal? Bleib dran!
Verwandte Tutorials auf Lapalutschi.de
Mehr Kontext zum Setup? Im Self-Hosted-KI-Komplettguide ordnen wir Ollama+Open-WebUI in den größeren Bauplan ein — mit Hardware, Modellen und Use-Cases.
- Ollama auf eigenem Server — die Server-Variante mit Härtung und API.
- Lokale KI mit Ollama — der Schnellstart.