OpenFang Agent Operating System Architektur mit 7 autonomen Hands und Rust-Kern

    OpenFang Deep Dive – Das erste Agent Operating System im Detail

    Till FreitagTill Freitag14. März 20265 min read
    Till Freitag

    TL;DR: „OpenFang denkt Agenten als Betriebssystem – nicht als Framework. Das Hands-Konzept macht den Unterschied: 7 spezialisierte Module statt einem monolithischen Loop."

    — Till Freitag

    Warum ein Agent „Operating System"?

    Die meisten KI-Agenten folgen demselben Muster: Ein LLM-Loop, ein paar Tools, vielleicht etwas Memory. OpenClaw hat diesen Ansatz mit 430.000+ Zeilen Code und 200.000+ GitHub Stars zur Perfektion getrieben – und gleichzeitig an seine Grenzen gebracht.

    OpenFang stellt eine grundlegende Frage: Was wäre, wenn ein Agent nicht ein Programm wäre, das Tools aufruft – sondern ein Betriebssystem, das spezialisierte Prozesse orchestriert?

    Der Unterschied ist nicht nur semantisch. Er verändert, wie Agenten gebaut, skaliert und gewartet werden.


    Die Architektur: Rust-Kern mit modularem Design

    OpenFang ist in Rust geschrieben – nicht aus Hype, sondern aus pragmatischen Gründen:

    • Memory Safety ohne Garbage Collection: Keine unvorhersehbaren Pausen
    • Compile-Time Guarantees: Fehler werden beim Build gefunden, nicht in Produktion
    • Performance: Native Geschwindigkeit für I/O-intensive Agent-Operationen
    • Single Binary: Deployment ohne Runtime-Dependencies

    Die drei Schichten

    ┌─────────────────────────────────────┐
    │          Messaging Layer            │
    │   (40 Kanäle: Slack, Discord, ...)  │
    ├─────────────────────────────────────┤
    │          Hands Layer                │
    │   (7 autonome Module + 38 Tools)   │
    ├─────────────────────────────────────┤
    │          Core Runtime               │
    │   (Rust, 26+ LLM Provider)         │
    └─────────────────────────────────────┘

    Core Runtime: Der Rust-Kern verwaltet LLM-Verbindungen, State Management und die Orchestrierung der Hands. Er unterstützt 26+ LLM-Provider – von OpenAI über Anthropic bis zu lokalen Ollama-Instanzen.

    Hands Layer: Hier passiert die eigentliche Arbeit. Jede Hand ist ein autonomes Modul mit eigener Logik, eigenem State und eigenen Tools. Mehr dazu im nächsten Abschnitt.

    Messaging Layer: 40 Messaging-Kanäle – von Slack über Discord bis Telegram – über ein vereinheitlichtes Nachrichtenformat. Jeder Kanal kann jede Hand ansprechen.


    Das Hands-Konzept: Der Kern von OpenFang

    Das Hands-Konzept ist OpenFangs differenzierendes Architekturmerkmal. Statt eines monolithischen Agent-Loops, der alles selbst macht, delegiert die Runtime an 7 spezialisierte, autonome Module – die „Hands".

    Die 7 Hands im Überblick

    Hand Funktion Beispiel
    Scheduler Hand Zeitbasierte Aufgaben und Cron-Jobs „Sende jeden Montag um 9:00 den Wochenbericht"
    Knowledge Hand Knowledge Graph aufbauen und abfragen „Was waren die Key Findings aus dem Q1-Review?"
    Dashboard Hand Metriken visualisieren und Alerts konfigurieren „Zeige mir den Deployment-Status der letzten 7 Tage"
    Monitor Hand Systeme überwachen und bei Anomalien reagieren „Alarmiere mich, wenn die API-Latenz über 500ms steigt"
    Research Hand Web-Recherche und Zusammenfassung „Fasse die Top-5-Konkurrenzprodukte zusammen"
    Workflow Hand Multi-Step-Prozesse orchestrieren „Erstelle PR, warte auf Review, merge bei Approval"
    Memory Hand Langzeitgedächtnis über Sessions hinweg „Erinnere dich an meine Präferenzen für Code-Style"

    Warum Hands statt Plugins?

    Der Unterschied zwischen einer Hand und einem Plugin ist fundamental:

    Plugin (OpenClaw-Modell):

    • Wird vom Agent-Loop aufgerufen
    • Führt eine Aktion aus und gibt ein Ergebnis zurück
    • Hat keinen eigenen State
    • Ist passiv – wartet auf Aufruf

    Hand (OpenFang-Modell):

    • Läuft als autonomer Prozess
    • Hat eigenen State und eigene Logik
    • Kann proaktiv handeln (z.B. Scheduler)
    • Kommuniziert bidirektional mit dem Core

    Das bedeutet: Die Scheduler Hand wartet nicht darauf, gefragt zu werden – sie feuert eigenständig zur konfigurierten Zeit. Die Monitor Hand beobachtet kontinuierlich und alarmiert proaktiv. Das ist der Unterschied zwischen einem Tool und einem Betriebssystem.

    Hands-Konfiguration

    # openfang.yaml
    hands:
      scheduler:
        enabled: true
        timezone: "Europe/Berlin"
        max_concurrent_jobs: 10
      
      knowledge:
        enabled: true
        storage: "local"  # oder "postgres", "redis"
        embedding_model: "text-embedding-3-small"
      
      monitor:
        enabled: true
        check_interval: "30s"
        alert_channels: ["slack-ops", "discord-alerts"]
      
      dashboard:
        enabled: true
        port: 8080
        auth: true

    Jede Hand kann individuell aktiviert, konfiguriert und skaliert werden. Ein Edge-Deployment braucht vielleicht nur Scheduler und Memory – die anderen bleiben deaktiviert.


    OpenFang vs. OpenClaw: Der systematische Vergleich

    Architektur-Philosophie

    Aspekt OpenClaw OpenFang
    Paradigma Monolithischer Agent-Loop Agent Operating System
    Sprache TypeScript/Python Rust
    Codebase 430.000+ Zeilen ~40.000 Zeilen
    Erweiterung Plugins (passiv) Hands (autonom)
    State Management Zentraler State State pro Hand
    Proaktivität Nur auf Anfrage Hands handeln eigenständig

    Feature-Vergleich

    Feature OpenClaw OpenFang
    GitHub Stars 200.000+ 14.200+
    LLM-Provider 10+ 26+
    Messaging-Kanäle 50+ 40
    Tools 100+ (via Plugins) 38 (built-in)
    Plugin-Ökosystem Riesig Jung
    Container-Isolation Nein (ohne Drittanbieter) Geplant
    Knowledge Graph Via Plugin Built-in (Knowledge Hand)
    Scheduling Via Plugin Built-in (Scheduler Hand)
    Monitoring Via Plugin Built-in (Monitor Hand)
    Test-Coverage Unbekannt 1.700+ Tests

    Wann OpenClaw, wann OpenFang?

    OpenClaw wählen, wenn:

    • Du ein riesiges Plugin-Ökosystem brauchst
    • Enterprise-Integrationen (Jira, Salesforce, SAP) kritisch sind
    • Dein Team TypeScript/Python spricht
    • Community-Support und Dokumentation Priorität haben

    OpenFang wählen, wenn:

    • Du proaktive, autonome Agent-Prozesse brauchst
    • Performance und Memory Safety wichtig sind
    • Du ein modulares System bevorzugst (nur die Hands aktivieren, die du brauchst)
    • Du Monitoring, Scheduling und Knowledge Graph als Erstklassbürger willst
    • Du bereit bist, in ein jüngeres Ökosystem zu investieren

    Setup und erste Schritte

    Installation

    # Via Cargo (Rust-Toolchain erforderlich)
    cargo install openfang
    
    # Via Docker (empfohlen für Evaluierung)
    docker run -d \
      --name openfang \
      -p 8080:8080 \
      -v ./config:/etc/openfang \
      openfang/openfang:latest

    Minimale Konfiguration

    # openfang.yaml
    runtime:
      llm_provider: "openai"
      model: "gpt-4o"
      # oder: llm_provider: "ollama", model: "llama3"
    
    channels:
      - type: "slack"
        token: "${SLACK_BOT_TOKEN}"
      - type: "discord"
        token: "${DISCORD_TOKEN}"
    
    hands:
      scheduler:
        enabled: true
      knowledge:
        enabled: true
      memory:
        enabled: true

    Erster Test

    # CLI-Modus für schnelles Testen
    openfang chat "Was kannst du für mich tun?"
    
    # Status aller Hands prüfen
    openfang status

    Produktionsreife: Wo steht OpenFang?

    Ehrlich gesagt: OpenFang ist noch nicht produktionsreif für Enterprise-Einsätze. Version 0.1.0 bedeutet, dass Breaking Changes jederzeit möglich sind. Aber:

    • 1.700+ Tests zeigen Engineering-Disziplin
    • 14.200+ GitHub Stars zeigen Community-Interesse
    • Apache 2.0 Lizenz ermöglicht kommerzielle Nutzung
    • Die Rust-Basis gibt langfristig Vertrauen in Stabilität und Performance

    Roadmap-Highlights

    • Container-Isolation: Hands in isolierten Containern ausführen (wie NanoClaw, aber auf OS-Level)
    • Hand Marketplace: Community-Hands installieren und teilen
    • Multi-Agent: Mehrere OpenFang-Instanzen orchestrieren
    • Edge-Support: Reduziertes Binary für ressourcenbeschränkte Hardware

    Einordnung im Agent-Ökosystem

    OpenFang besetzt eine einzigartige Nische:

    Kategorie Tool Ansatz
    Maximalist OpenClaw Alles-in-einem, Plugin-Ökosystem
    Minimalist NanoClaw, Nanobot So wenig Code wie möglich
    Edge NullClaw, ZeroClaw Minimaler Footprint, überall lauffähig
    Agent OS OpenFang Betriebssystem-Paradigma mit autonomen Modulen
    Memory-first memU Langzeitgedächtnis als Kernfeature
    Coding OpenCode, Claude Code Spezialisiert auf Software-Entwicklung

    OpenFang ist der einzige Agent, der sich als Operating System positioniert. Ob das nur Marketing ist oder ein echtes Architektur-Differenzierungsmerkmal, wird die nächste Version zeigen. Die Hands-Abstraktion ist jedenfalls der überzeugendste Ansatz für proaktive, autonome Agent-Prozesse, den wir bisher gesehen haben.


    Fazit: Ein Blick in die Zukunft von Agenten

    OpenFang ist heute nicht die sichere Wahl – das ist OpenClaw. Aber OpenFang zeigt, wohin die Reise geht: Weg vom monolithischen Agent-Loop, hin zu modularen, autonomen Systemen, die wie ein Betriebssystem funktionieren.

    Für Teams, die bereit sind, in ein junges Ökosystem zu investieren und die Rust-Lernkurve zu akzeptieren, bietet OpenFang den architektonisch elegantesten Ansatz im aktuellen Agent-Markt.

    Ihr evaluiert Agent-Architekturen für euer Team? Sprecht uns an – wir helfen bei der Auswahl und Integration.


    Weiterführend: OpenClaw Alternativen im Vergleich · Was ist OpenClaw? · NanoClaw im Detail · Unsere Tool-Philosophie

    TeilenLinkedInWhatsAppE-Mail

    Related Articles

    ZeroClaw KI-Agent in Rust – minimaler Footprint, maximale Performance
    March 14, 20265 min

    ZeroClaw Deep Dive – NullClaws Nachfolger in Rust im Detail

    ZeroClaw ist der Rust-Nachfolger von NullClaw – mit 26.800+ GitHub Stars, Single-Binary-Deployment und 99% kleinerem Foo…

    Read more
    Die besten OpenClaw-Alternativen 2026 – von NanoClaw bis NullClawDeep Dive
    February 21, 20269 min

    Die besten OpenClaw-Alternativen 2026 – von NanoClaw bis NullClaw

    OpenClaw hat 160.000+ GitHub Stars – aber nicht jeder braucht 430.000 Zeilen Code. Wir vergleichen die besten Alternativ…

    Read more
    NanoClaw: Der schlanke Nachfolger von OpenClaw – KI-Agent für die Hosentasche
    February 21, 20263 min

    NanoClaw: Der schlanke Nachfolger von OpenClaw – KI-Agent für die Hosentasche

    NanoClaw ist der minimalistische Nachfolger von OpenClaw – ein KI-Agent, der auf Raspberry Pi läuft, per WhatsApp steuer…

    Read more
    OpenClaw KI-Agent Oberfläche mit autonomer Aufgabenverwaltung und LLM-Anbindung
    February 20, 20265 min

    Was ist OpenClaw? Der Open-Source KI-Agent im Überblick

    OpenClaw ist ein Open-Source KI-Agent, der Aufgaben autonom erledigt – von E-Mails bis Kalender. Self-hosted, DSGVO-konf…

    Read more
    monday.com Board verbunden mit OpenClaw KI-Agent als zentrales Gedächtnis und Steuerungssystem
    March 12, 20266 min

    monday.com + OpenClaw: Wie monday.com zum Gehirn deines KI-Agenten wird

    monday.com ist mehr als ein Projektmanagement-Tool – es kann das Langzeitgedächtnis und Execution Log eines KI-Agenten s…

    Read more
    OpenClaw KI-Agent in Produktion mit verbundenen Tools wie Slack, Linear, GitHub und PostHog
    March 12, 20264 min

    OpenClaw im Praxiseinsatz: So läuft unser KI-Agent in Produktion

    Wir betreiben einen OpenClaw-Agenten seit Wochen in Produktion – mit Linear, PostHog, GitHub und Google Search Console. …

    Read more
    Open-Source-LLMs im Vergleich 2026 – 20+ Modelle, die du kennen solltest
    March 7, 20266 min

    Open-Source-LLMs im Vergleich 2026 – 20+ Modelle, die du kennen solltest

    Von Llama über Qwen bis Hunter Alpha: Alle wichtigen Open-Source-LLMs im Überblick – mit GitHub-Stars, Parametern, Lizen…

    Read more
    OpenClaw Self-Hosting Guide: DSGVO-konform in 30 Minuten
    February 28, 20264 min

    OpenClaw Self-Hosting Guide: DSGVO-konform in 30 Minuten

    OpenClaw DSGVO-konform selbst hosten – mit Docker, persistenter Datenbank und lokalem LLM via Ollama. Schritt-für-Schrit…

    Read more
    Hunter Alpha: Das größte kostenlose KI-Modell der Welt – und steckt DeepSeek V4 dahinter?
    March 13, 20264 min

    Hunter Alpha: Das größte kostenlose KI-Modell der Welt – und steckt DeepSeek V4 dahinter?

    1 Billion Parameter, 1 Million Token Kontext, komplett kostenlos – Hunter Alpha ist das größte je veröffentlichte KI-Mod…

    Read more