
OpenClaw Self-Hosting Guide: DSGVO-konform in 30 Minuten
TL;DR: „OpenClaw in 30 Minuten selbst hosten: Docker Compose, persistente Volumes, lokales LLM via Ollama – komplett DSGVO-konform, weil keine Daten dein Netzwerk verlassen."
— Till FreitagWarum Self-Hosting?
Cloud-KI ist bequem – aber nicht immer eine Option. Spätestens wenn personenbezogene Daten verarbeitet werden (E-Mails, Kundendaten, interne Dokumente), greift die DSGVO. Und die sagt: Du brauchst eine Rechtsgrundlage für jeden Datentransfer an Dritte.
Self-Hosting löst das Problem an der Wurzel: Deine Daten verlassen dein Netzwerk nie. Kein Auftragsverarbeitungsvertrag mit OpenAI nötig, keine Diskussion über Drittlandtransfers.
30-Sekunden-Version: Docker Compose hochfahren, Ollama für lokale LLMs konfigurieren, fertig. Keine Daten an externe Server, volle DSGVO-Konformität.
Voraussetzungen
Bevor es losgeht – das brauchst du:
| Komponente | Minimum | Empfohlen |
|---|---|---|
| OS | Linux (Ubuntu 22.04+) | Ubuntu 24.04 LTS |
| RAM | 8 GB | 16–32 GB |
| CPU | 4 Cores | 8+ Cores |
| GPU | – | NVIDIA RTX 3060+ |
| Storage | 20 GB | 100 GB SSD |
| Software | Docker Engine + Compose v2 | + Ollama |
Apple Silicon: M1/M2/M3/M4 Macs eignen sich hervorragend – Ollama nutzt die Neural Engine nativ.
Schritt 1: Docker Compose Setup
Erstelle ein Verzeichnis und die docker-compose.yml:
mkdir -p ~/openclaw && cd ~/openclaw
# docker-compose.yml
services:
openclaw-gateway:
image: ${OPENCLAW_IMAGE:-openclaw:local}
restart: unless-stopped
environment:
HOME: /home/node
TERM: xterm-256color
OPENCLAW_GATEWAY_TOKEN: ${OPENCLAW_GATEWAY_TOKEN}
volumes:
- openclaw-config:/home/node/.openclaw/config
- ${OPENCLAW_WORKSPACE_DIR:-./workspace}:/home/node/.openclaw/workspace
ports:
- "127.0.0.1:8000:8000" # Nur localhost – nicht öffentlich!
security_opt:
- no-new-privileges:true
deploy:
resources:
limits:
memory: 4G
volumes:
openclaw-config:
Wichtige Sicherheits-Details
127.0.0.1:8000:8000: Port nur auf localhost gebunden – kein Zugriff von außenno-new-privileges: Container kann keine Root-Rechte eskalierenmemory: 4G: Ressourcen-Limit verhindert OOM auf dem Host- Persistente Volumes: Config und Workspace überleben Container-Neustarts
Schritt 2: Umgebungsvariablen
Erstelle eine .env-Datei im selben Verzeichnis:
# .env
OPENCLAW_GATEWAY_TOKEN=dein-sicheres-token-hier
OPENCLAW_WORKSPACE_DIR=./workspace
OPENCLAW_IMAGE=openclaw:local
Tipp: Generiere ein sicheres Token mit
openssl rand -hex 32.
Schritt 3: Container starten
# Image bauen (oder offizielles Image nutzen)
docker compose up -d
# Logs prüfen
docker compose logs -f openclaw-gateway
# Status checken
docker compose ps
Nach wenigen Sekunden läuft OpenClaw auf http://localhost:8000.
Schritt 4: Lokales LLM mit Ollama
Für volle DSGVO-Konformität brauchst du ein lokales LLM – keine API-Calls an OpenAI oder Anthropic. Hier kommt Ollama ins Spiel.
Ollama installieren
curl -fsSL https://ollama.com/install.sh | sh
Modell herunterladen
# Empfehlung für gute Balance aus Qualität und Speed
ollama pull llama3.3
# Für Code-Tasks
ollama pull qwen2.5-coder:7b
# Für schwächere Hardware
ollama pull phi-3:mini
OpenClaw mit Ollama verbinden
# API-Key setzen (Ollama braucht keinen echten Key – jeder String funktioniert)
openclaw config set models.providers.ollama.apiKey "ollama-local"
# Standard-Modell festlegen
openclaw config set agents.defaults.model.primary "ollama/llama3.3"
Oder manuell in ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.3",
"fallbacks": ["ollama/qwen2.5-coder:7b"]
}
}
}
}
Verifizieren
# Prüfen ob OpenClaw die Ollama-Modelle erkennt
openclaw models list
Du solltest deine lokalen Modelle in der Liste sehen. Ab jetzt verlässt kein einziger Token dein Netzwerk.
Schritt 5: Hybrid-Setup (Optional)
Nicht jede Aufgabe braucht ein Cloud-Modell, aber manche profitieren davon. OpenClaw unterstützt Multi-LLM: Du kannst pro Task-Typ das Modell wählen.
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.3"
}
},
"email-triage": {
"model": {
"primary": "ollama/llama3.3"
}
},
"complex-analysis": {
"model": {
"primary": "anthropic/claude-3.5-sonnet"
}
}
}
}
DSGVO-Tipp: Nutze Cloud-Modelle nur für nicht-personenbezogene Daten. Für E-Mail-Triage und Kundendaten → immer lokal.
DSGVO-Checkliste
Damit dein Self-Hosting-Setup wirklich DSGVO-konform ist:
| Anforderung | Umsetzung |
|---|---|
| Kein Drittlandtransfer | Lokales LLM via Ollama, kein API-Call an US-Server |
| Datenminimierung | Nur nötige Daten an den Agenten übergeben |
| Löschkonzept | Workspace-Daten regelmäßig bereinigen, Retention-Policy |
| Zugriffskontrolle | Gateway-Token, localhost-only Binding, Firewall |
| Verschlüsselung | LUKS/dm-crypt für die Host-Festplatte, TLS für interne Kommunikation |
| Protokollierung | Docker-Logs für Audit-Trail, docker compose logs |
| Verzeichnis der Verarbeitungstätigkeiten | OpenClaw als Verarbeitungssystem dokumentieren |
Backup & Restore
Persistente Daten sichern:
# Backup
docker compose stop
tar -czf openclaw-backup-$(date +%Y%m%d).tar.gz \
./workspace \
$(docker volume inspect openclaw-config --format '{{ .Mountpoint }}')
docker compose start
# Restore
docker compose stop
tar -xzf openclaw-backup-YYYYMMDD.tar.gz
docker compose start
Troubleshooting
| Problem | Lösung |
|---|---|
| Ollama-Modelle nicht erkannt | ollama serve läuft? Port 11434 erreichbar? |
| Container startet nicht | docker compose logs prüfen, RAM-Limit erhöhen |
| Langsame Antworten | Größeres Modell → mehr RAM/GPU nötig, oder kleineres Modell wählen |
| Permission Denied | Volume-Permissions prüfen: chown -R 1000:1000 ./workspace |
Empfohlene Modelle nach Use Case
| Use Case | Modell | RAM-Bedarf | Qualität |
|---|---|---|---|
| E-Mail-Triage | Llama 3.3 (8B) | 8 GB | ★★★★☆ |
| Code-Analyse | Qwen 2.5 Coder (7B) | 8 GB | ★★★★★ |
| Zusammenfassungen | Llama 3.3 (70B) | 48 GB | ★★★★★ |
| Schnelle Antworten | Phi-3 Mini (3.8B) | 4 GB | ★★★☆☆ |
| Offline auf RPi | Phi-3 Mini (3.8B) | 4 GB | ★★★☆☆ |
Fazit
OpenClaw selbst zu hosten ist kein Hexenwerk – mit Docker Compose und Ollama steht der Stack in 30 Minuten. Der entscheidende Vorteil: Volle Datensouveränität, volle DSGVO-Konformität. Keine Daten an Dritte, keine AVV-Diskussionen, kein Vendor Lock-in.
Für Teams, die ihre Produktivität mit KI steigern wollen, ohne die Kontrolle abzugeben, ist Self-Hosting der einzige Weg.
Du willst OpenClaw in deiner Infrastruktur aufsetzen? Sprich mit uns – wir helfen beim Setup, bei der Absicherung und beim Training deines Teams.
Mehr zum Thema: Was ist OpenClaw? · NanoClaw: Der schlanke Nachfolger · Unsere Tool-Philosophie
Verwandte Artikel

Lokale LLMs mit OpenClaw: Ollama, Llama 3.3, Qwen 3.5 & MiniMax M2.5 im Praxistest
Llama 3.3, Qwen 3.5 und MiniMax M2.5 lokal mit OpenClaw und Ollama betreiben – Performance-Benchmarks, Kosten-Vergleich …
Weiterlesen
NanoClaw: Der schlanke Nachfolger von OpenClaw – KI-Agent für die Hosentasche
NanoClaw ist der minimalistische Nachfolger von OpenClaw – ein KI-Agent, der auf Raspberry Pi läuft, per WhatsApp steuer…
Weiterlesen
Deep DiveDie besten OpenClaw-Alternativen 2026 – von NanoClaw bis NullClaw
OpenClaw hat 160.000+ GitHub Stars – aber nicht jeder braucht 430.000 Zeilen Code. Wir vergleichen die besten Alternativ…
Weiterlesen