OpenClaw Self-Hosting Guide: DSGVO-konform in 30 Minuten

    OpenClaw Self-Hosting Guide: DSGVO-konform in 30 Minuten

    Till FreitagTill Freitag28. Februar 20264 min read
    Till Freitag

    TL;DR: „OpenClaw in 30 Minuten selbst hosten: Docker Compose, persistente Volumes, lokales LLM via Ollama – komplett DSGVO-konform, weil keine Daten dein Netzwerk verlassen."

    — Till Freitag

    Warum Self-Hosting?

    Cloud-KI ist bequem – aber nicht immer eine Option. Spätestens wenn personenbezogene Daten verarbeitet werden (E-Mails, Kundendaten, interne Dokumente), greift die DSGVO. Und die sagt: Du brauchst eine Rechtsgrundlage für jeden Datentransfer an Dritte.

    Self-Hosting löst das Problem an der Wurzel: Deine Daten verlassen dein Netzwerk nie. Kein Auftragsverarbeitungsvertrag mit OpenAI nötig, keine Diskussion über Drittlandtransfers.

    30-Sekunden-Version: Docker Compose hochfahren, Ollama für lokale LLMs konfigurieren, fertig. Keine Daten an externe Server, volle DSGVO-Konformität.

    Voraussetzungen

    Bevor es losgeht – das brauchst du:

    Komponente Minimum Empfohlen
    OS Linux (Ubuntu 22.04+) Ubuntu 24.04 LTS
    RAM 8 GB 16–32 GB
    CPU 4 Cores 8+ Cores
    GPU NVIDIA RTX 3060+
    Storage 20 GB 100 GB SSD
    Software Docker Engine + Compose v2 + Ollama

    Apple Silicon: M1/M2/M3/M4 Macs eignen sich hervorragend – Ollama nutzt die Neural Engine nativ.

    Schritt 1: Docker Compose Setup

    Erstelle ein Verzeichnis und die docker-compose.yml:

    mkdir -p ~/openclaw && cd ~/openclaw
    
    # docker-compose.yml
    services:
      openclaw-gateway:
        image: ${OPENCLAW_IMAGE:-openclaw:local}
        restart: unless-stopped
        environment:
          HOME: /home/node
          TERM: xterm-256color
          OPENCLAW_GATEWAY_TOKEN: ${OPENCLAW_GATEWAY_TOKEN}
        volumes:
          - openclaw-config:/home/node/.openclaw/config
          - ${OPENCLAW_WORKSPACE_DIR:-./workspace}:/home/node/.openclaw/workspace
        ports:
          - "127.0.0.1:8000:8000"  # Nur localhost – nicht öffentlich!
        security_opt:
          - no-new-privileges:true
        deploy:
          resources:
            limits:
              memory: 4G
    
    volumes:
      openclaw-config:
    

    Wichtige Sicherheits-Details

    • 127.0.0.1:8000:8000: Port nur auf localhost gebunden – kein Zugriff von außen
    • no-new-privileges: Container kann keine Root-Rechte eskalieren
    • memory: 4G: Ressourcen-Limit verhindert OOM auf dem Host
    • Persistente Volumes: Config und Workspace überleben Container-Neustarts

    Schritt 2: Umgebungsvariablen

    Erstelle eine .env-Datei im selben Verzeichnis:

    # .env
    OPENCLAW_GATEWAY_TOKEN=dein-sicheres-token-hier
    OPENCLAW_WORKSPACE_DIR=./workspace
    OPENCLAW_IMAGE=openclaw:local
    

    Tipp: Generiere ein sicheres Token mit openssl rand -hex 32.

    Schritt 3: Container starten

    # Image bauen (oder offizielles Image nutzen)
    docker compose up -d
    
    # Logs prüfen
    docker compose logs -f openclaw-gateway
    
    # Status checken
    docker compose ps
    

    Nach wenigen Sekunden läuft OpenClaw auf http://localhost:8000.

    Schritt 4: Lokales LLM mit Ollama

    Für volle DSGVO-Konformität brauchst du ein lokales LLM – keine API-Calls an OpenAI oder Anthropic. Hier kommt Ollama ins Spiel.

    Ollama installieren

    curl -fsSL https://ollama.com/install.sh | sh
    

    Modell herunterladen

    # Empfehlung für gute Balance aus Qualität und Speed
    ollama pull llama3.3
    
    # Für Code-Tasks
    ollama pull qwen2.5-coder:7b
    
    # Für schwächere Hardware
    ollama pull phi-3:mini
    

    OpenClaw mit Ollama verbinden

    # API-Key setzen (Ollama braucht keinen echten Key – jeder String funktioniert)
    openclaw config set models.providers.ollama.apiKey "ollama-local"
    
    # Standard-Modell festlegen
    openclaw config set agents.defaults.model.primary "ollama/llama3.3"
    

    Oder manuell in ~/.openclaw/openclaw.json:

    {
      "agents": {
        "defaults": {
          "model": {
            "primary": "ollama/llama3.3",
            "fallbacks": ["ollama/qwen2.5-coder:7b"]
          }
        }
      }
    }
    

    Verifizieren

    # Prüfen ob OpenClaw die Ollama-Modelle erkennt
    openclaw models list
    

    Du solltest deine lokalen Modelle in der Liste sehen. Ab jetzt verlässt kein einziger Token dein Netzwerk.

    Schritt 5: Hybrid-Setup (Optional)

    Nicht jede Aufgabe braucht ein Cloud-Modell, aber manche profitieren davon. OpenClaw unterstützt Multi-LLM: Du kannst pro Task-Typ das Modell wählen.

    {
      "agents": {
        "defaults": {
          "model": {
            "primary": "ollama/llama3.3"
          }
        },
        "email-triage": {
          "model": {
            "primary": "ollama/llama3.3"
          }
        },
        "complex-analysis": {
          "model": {
            "primary": "anthropic/claude-3.5-sonnet"
          }
        }
      }
    }
    

    DSGVO-Tipp: Nutze Cloud-Modelle nur für nicht-personenbezogene Daten. Für E-Mail-Triage und Kundendaten → immer lokal.

    DSGVO-Checkliste

    Damit dein Self-Hosting-Setup wirklich DSGVO-konform ist:

    Anforderung Umsetzung
    Kein Drittlandtransfer Lokales LLM via Ollama, kein API-Call an US-Server
    Datenminimierung Nur nötige Daten an den Agenten übergeben
    Löschkonzept Workspace-Daten regelmäßig bereinigen, Retention-Policy
    Zugriffskontrolle Gateway-Token, localhost-only Binding, Firewall
    Verschlüsselung LUKS/dm-crypt für die Host-Festplatte, TLS für interne Kommunikation
    Protokollierung Docker-Logs für Audit-Trail, docker compose logs
    Verzeichnis der Verarbeitungstätigkeiten OpenClaw als Verarbeitungssystem dokumentieren

    Backup & Restore

    Persistente Daten sichern:

    # Backup
    docker compose stop
    tar -czf openclaw-backup-$(date +%Y%m%d).tar.gz \
      ./workspace \
      $(docker volume inspect openclaw-config --format '{{ .Mountpoint }}')
    docker compose start
    
    # Restore
    docker compose stop
    tar -xzf openclaw-backup-YYYYMMDD.tar.gz
    docker compose start
    

    Troubleshooting

    Problem Lösung
    Ollama-Modelle nicht erkannt ollama serve läuft? Port 11434 erreichbar?
    Container startet nicht docker compose logs prüfen, RAM-Limit erhöhen
    Langsame Antworten Größeres Modell → mehr RAM/GPU nötig, oder kleineres Modell wählen
    Permission Denied Volume-Permissions prüfen: chown -R 1000:1000 ./workspace

    Empfohlene Modelle nach Use Case

    Use Case Modell RAM-Bedarf Qualität
    E-Mail-Triage Llama 3.3 (8B) 8 GB ★★★★☆
    Code-Analyse Qwen 2.5 Coder (7B) 8 GB ★★★★★
    Zusammenfassungen Llama 3.3 (70B) 48 GB ★★★★★
    Schnelle Antworten Phi-3 Mini (3.8B) 4 GB ★★★☆☆
    Offline auf RPi Phi-3 Mini (3.8B) 4 GB ★★★☆☆

    Fazit

    OpenClaw selbst zu hosten ist kein Hexenwerk – mit Docker Compose und Ollama steht der Stack in 30 Minuten. Der entscheidende Vorteil: Volle Datensouveränität, volle DSGVO-Konformität. Keine Daten an Dritte, keine AVV-Diskussionen, kein Vendor Lock-in.

    Für Teams, die ihre Produktivität mit KI steigern wollen, ohne die Kontrolle abzugeben, ist Self-Hosting der einzige Weg.


    Du willst OpenClaw in deiner Infrastruktur aufsetzen? Sprich mit uns – wir helfen beim Setup, bei der Absicherung und beim Training deines Teams.

    Mehr zum Thema: Was ist OpenClaw? · NanoClaw: Der schlanke Nachfolger · Unsere Tool-Philosophie

    TeilenLinkedInWhatsAppE-Mail