Hunter Alpha enttarnt: Nicht DeepSeek V4, sondern Xiaomis MiMo-V2-Pro

    Hunter Alpha enttarnt: Nicht DeepSeek V4, sondern Xiaomis MiMo-V2-Pro

    Till FreitagTill Freitag13. März 2026Updated: April 13, 20264 min read
    Till Freitag

    TL;DR: „Hunter Alpha ist Xiaomis MiMo-V2-Pro – nicht DeepSeek V4. Das echte V4 kommt voraussichtlich Ende April 2026 und läuft erstmals auf Huawei Ascend Chips."

    — Till Freitag

    Update 13. April 2026: Hunter Alpha wurde am 18. März 2026 als Xiaomis MiMo-V2-Pro enttarnt – es war nie DeepSeek V4. Dieser Artikel wurde grundlegend überarbeitet und mit den aktuellen Fakten zu beiden Modellen ergänzt.

    Was passiert ist – und was wir korrigieren

    Am 11. März 2026 erschien auf OpenRouter ein anonymes Modell namens Hunter Alpha – 1 Billion Parameter, 1 Million Token Kontext, komplett kostenlos. Die Community (wir eingeschlossen) vermutete: Das ist DeepSeek V4 im Stealth-Test.

    Wir lagen falsch.

    Am 18. März bestätigte Xiaomis KI-Abteilung MiMo, dass Hunter Alpha ein früher interner Testlauf von MiMo-V2-Pro war – dem Flaggschiff-LLM des Smartphone- und EV-Konzerns. Geleitet wird das Team von Luo Fuli, einem ehemaligen Core-Contributor bei DeepSeek, der Ende 2025 zu Xiaomi wechselte. Das erklärt die architektonischen Ähnlichkeiten, die zur Verwechslung führten.

    Die korrigierten Fakten: MiMo-V2-Pro

    Eigenschaft Wert
    Modell Xiaomi MiMo-V2-Pro
    Parameter (gesamt) >1 Billion (1T)
    Parameter (aktiv) ~42 Milliarden
    Kontextfenster 1.048.576 Tokens (~1M)
    Preis (bis 256K Tokens) $1 / MTok Input · $3 / MTok Output
    Preis (bis 1M Tokens) $2 / MTok Input · $6 / MTok Output
    AI Intelligence Index ~50 (Rang 8 weltweit, Rang 2 China)
    ClawEval Score 61.5 (nahe Frontier-Modellen)
    Open Source Geplant nach Stabilisierung
    Hersteller Xiaomi / MiMo AI Team

    Wichtig: Die ursprüngliche kostenlose Phase auf OpenRouter war ein begrenzter Testlauf. MiMo-V2-Pro wird mittlerweile kommerziell bepreist.

    Warum die Verwechslung plausibel war

    Die Indizien waren real – nur die Schlussfolgerung war falsch:

    • 1T Parameter → MiMo-V2-Pro hat tatsächlich >1T Parameter, genau wie für DeepSeek V4 erwartet
    • MoE-Architektur → Beide verwenden Mixture of Experts
    • Timing Q1 2026 → DeepSeek V4 wurde für Q1 erwartet, Hunter Alpha erschien im März
    • "Ich bin ein chinesisches KI-Modell" → Das Modell identifizierte sich als chinesisch mit Trainings-Cutoff Mai 2025
    • Luo Fuli → Der Teamleiter kam direkt von DeepSeek – gleiche Architektur-DNA

    Die Lektion: In einem Markt, in dem mehrere chinesische Unternehmen an 1T-Modellen arbeiten, ist "es sieht aus wie DeepSeek" kein Beweis mehr.

    Und was ist mit dem echten DeepSeek V4?

    Das echte DeepSeek V4 ist noch nicht erschienen – aber voraussichtlich Ende April 2026 steht der Launch bevor. Hier ist, was wir Stand heute wissen:

    Eigenschaft Erwarteter Wert
    Parameter (gesamt) ~1 Billion (1T)
    Parameter (aktiv) ~32–37 Milliarden
    Architektur MoE + Engram (konditionelles Memory)
    Kontextfenster ~1M Tokens (nicht offiziell bestätigt)
    Hardware Huawei Ascend Chips
    SWE-bench Score ~81% (laut Leaks)
    Preise Erwartet aggressiv (DeepSeek-typisch)
    Status V4-Lite bereits in API-Tests

    Die Huawei-Story ist die eigentliche Nachricht

    Reuters bestätigte am 3. April: DeepSeek V4 wird auf Huawei Ascend Prozessoren laufen – nicht auf NVIDIA oder AMD. DeepSeek hat westlichen Chip-Herstellern bewusst keinen frühen Optimierungszugang gewährt, während chinesische Hersteller bevorzugt wurden.

    Wenn V4 auf Huawei-Chips Frontier-Performance erreicht, ist das ein direktes Gegenargument zur These, dass US-Exportkontrollen Chinas KI-Entwicklung nachhaltig bremsen.

    Zweimal verschoben, jetzt nah dran

    DeepSeek V4 wurde ursprünglich für Februar erwartet, dann auf März verschoben. Reuters berichtet seit Anfang April von einem Launch "in den nächsten Wochen". V4-Lite wird bereits auf API-Infrastruktur getestet – ein typisches Signal, dass der vollständige Launch unmittelbar bevorsteht.

    Was sich an unserer Bewertung ändert

    Was weiterhin gilt

    1. Die Kostenfrage verschiebt sich. Xiaomis aggressives Pricing und DeepSeeks erwartete Preise bestätigen: AI-Inferenz wird zur Commodity.
    2. Agenten werden mächtiger. MiMo-V2-Pro ist explizit für Agenten optimiert (ClawEval 61.5). DeepSeek V4 dürfte hier nachlegen.
    3. Flexibilität bleibt Trumpf. Hunter Alpha zeigt: Das nächste relevante Modell kann von überall kommen – Xiaomi, DeepSeek, oder einem völlig neuen Player.

    Was sich geändert hat

    1. China hat mehr als DeepSeek. Xiaomi, Alibaba (Qwen), ByteDance – die chinesische KI-Landschaft ist breiter als viele dachten. Ein Smartphone-Konzern baut ein Frontier-Modell. Das verändert die Wettbewerbsdynamik.
    2. Talent-Migration zählt. Luo Fulis Wechsel von DeepSeek zu Xiaomi zeigt: Architektur-Know-how ist portabel. Das macht Talent, nicht nur Compute, zum strategischen Asset.

    Praktische Nutzung: MiMo-V2-Pro heute

    MiMo-V2-Pro ist weiterhin auf OpenRouter verfügbar – jetzt unter dem echten Namen:

    Model ID: xiaomi/mimo-v2-pro

    Perfekt für OpenClaw, Cursor, Continue oder jede andere Anwendung, die API Keys unterstützt.

    Szenario Empfehlung
    Prototyping & Experimente ✅ MiMo-V2-Pro
    Code-Generierung (nicht-sensitiv) ✅ MiMo-V2-Pro
    Agentic Tasks (Multi-Step) ✅ MiMo-V2-Pro (ClawEval 61.5)
    Sensible Kundendaten ❌ Claude oder lokales Modell
    DSGVO-relevante Verarbeitung ⚠️ Prüfen – Xiaomi-Server, nicht China-direkt

    ⚠️ Datenschutz-Update

    MiMo-V2-Pro läuft auf OpenRouter-Servern. Die Datenschutz-Situation hat sich gegenüber der anonymen Phase verbessert:

    • Bekannter Provider: Xiaomi ist ein börsennotiertes Unternehmen mit klarer Verantwortlichkeit
    • OpenRouter als Intermediär: Daten laufen nicht direkt nach China
    • Aber: Logging-Policies von OpenRouter gelten weiterhin. Für sensible Unternehmensdaten bleibt ein lokales Modell oder Claude die bessere Wahl.

    Fazit

    Hunter Alpha war ein faszinierendes Kapitel – und eine Lektion in Demut. Die Spekulation war nachvollziehbar, aber falsch. Xiaomis MiMo-V2-Pro ist ein beeindruckendes Modell in seiner eigenen Klasse, und DeepSeek V4 steht noch bevor.

    Die zwei wichtigsten Takeaways:

    1. Das chinesische KI-Ökosystem ist diverser als gedacht. Es ist nicht nur DeepSeek.
    2. DeepSeek V4 auf Huawei-Chips wird, wenn es Ende April erscheint, die geopolitische KI-Debatte neu definieren.

    Wir bleiben dran – und korrigieren uns, wenn die Fakten es verlangen.

    → Mehr über unsere AI-Services → Was ist OpenClaw? → Open-Source LLM Vergleich 2026

    TeilenLinkedInWhatsAppE-Mail

    Related Articles

    Geopolitische KI-Landschaft zwischen westlicher und östlicher TechnologieDeep Dive
    April 13, 20268 min

    Chinas KI-Offensive: Von Hunter Alpha bis DeepSeek V4 auf Huawei-Chips

    Ein anonymes 1T-Modell, eine Verwechslung mit DeepSeek, und die Enthüllung, dass Xiaomi dahintersteckt. Gleichzeitig ste…

    Read more
    Open-Source-LLMs im Vergleich 2026 – 25+ Modelle, die du kennen solltestDeep Dive
    March 7, 202610 min

    Open-Source-LLMs im Vergleich 2026 – 25+ Modelle, die du kennen solltest

    Von Llama über Qwen bis Gemma 4: Alle wichtigen Open-Source-LLMs im Überblick – mit GitHub-Stars, Parametern, Lizenzen u…

    Read more
    Kimi K2.5: Das chinesische Open-Weight-Modell hinter Cursors Composer 2
    March 26, 20264 min

    Kimi K2.5: Das chinesische Open-Weight-Modell hinter Cursors Composer 2

    Cursors Composer 2 basiert heimlich auf Moonshot AIs Kimi K2.5 – einem 1-Billionen-Parameter Open-Weight-Modell aus Peki…

    Read more
    April 28, 20265 min

    Paperclip: Wenn OpenClaw der Mitarbeiter ist, ist Paperclip die Firma

    Paperclip ist Open-Source-Infrastruktur, mit der du eine ganze KI-Firma führst – Org-Chart, Budgets, Approvals, Audit-Tr…

    Read more
    Projekt KNUT: 52 GB VRAM, null Cloud – lokale AI-Infrastruktur im Deep Dive
    April 10, 20264 min

    Projekt KNUT: 52 GB VRAM, null Cloud – lokale AI-Infrastruktur im Deep Dive

    Ein Mac Mini M4, zwei NVIDIA-GPUs, 52 GB VRAM – Projekt KNUT vereint heterogene Hardware zu einer lokalen AI-Infrastrukt…

    Read more
    GGUF, GGML, Safetensors – welches Format für dein lokales AI-Setup?
    March 1, 20264 min

    GGUF, GGML, Safetensors – welches Format für dein lokales AI-Setup?

    Wer AI lokal nutzen will, stolpert schnell über Dateiformate. GGUF, GGML, Safetensors – was ist was, wann brauchst du we…

    Read more
    122 Milliarden Parameter auf deinem Laptop – was Qwen3.5 für dein Business bedeutet
    February 28, 20263 min

    122 Milliarden Parameter auf deinem Laptop – was Qwen3.5 für dein Business bedeutet

    Alibabas Qwen3.5 schlägt GPT-5-mini in fast allen Benchmarks – und läuft lokal auf einem Laptop. Was das für Unternehmen…

    Read more
    Visualisierung von Kimi K2.6 Long-Horizon Agents: Halbmond als Moonshot-Symbol mit verteilten Sub-Agent-Knoten über einem KoordinationsrasterDeep Dive
    April 21, 20268 min

    Kimi K2.6: Warum die spannendste KI-Optimierung 2026 nicht Intelligenz ist – sondern Dauer

    Moonshot AI hat gestern Kimi K2.6 open-sourced. 1 Billion Parameter, 300 Sub-Agents, 13 Stunden autonome Codeoptimierung…

    Read more
    Gemma 4 KI-Modell läuft auf kompaktem Mini-PC – Frontier-Intelligenz wird lokal
    April 6, 20264 min

    Gemma 4: Frontier-Intelligenz auf dem Laptop – der Hype ist real

    Googles Gemma 4 liefert GPT-4-Niveau in 14 GB. 85 Tokens pro Sekunde auf Consumer-Hardware, 256K Kontext, Function Calli…

    Read more