Claude Opus 4.7 ist da: Was Du jetzt über Tokenizer, xhigh und Spend Controls wissen musst

    Claude Opus 4.7 ist da: Was Du jetzt über Tokenizer, xhigh und Spend Controls wissen musst

    Till FreitagTill Freitag17. April 20265 min read
    Till Freitag

    TL;DR: „Opus 4.7 kostet pro Token gleich viel wie Opus 4.6 ($5/$25 pro Mio. Input/Output), aber neuer Tokenizer + neues xhigh-Effort-Level bedeuten in der Praxis 20–30 % höhere Kosten bei komplexen Coding-Aufgaben. Premium-Seats bekommen Opus 4.7 als neuen Default in Cowork, Claude Code und Chat. Wer 'extra usage' aktiviert hat, sollte Spend Controls jetzt nachschärfen."

    — Till Freitag

    Das wichtigste in 30 Sekunden

    Anthropic hat heute Claude Opus 4.7 veröffentlicht – das bisher leistungsstärkste Modell der Opus-Reihe. Auf den ersten Blick klingt es nach einem normalen Punkt-Release: Preis bleibt gleich, Coding wird besser, Vision wird stärker.

    Auf den zweiten Blick stecken drei Änderungen drin, die für jedes Team mit aktivem Anthropic-Account in den nächsten Tagen relevant werden:

    1. Neuer Tokenizer – derselbe Input erzeugt für manche Kontext-Typen mehr Tokens.
    2. Neues xhigh-Effort-Level in Claude Code – als neuer Default für Premium-Seats.
    3. Premium-Seats werden automatisch auf Opus 4.7 umgestellt – in Cowork, Claude Code und Chat.

    Das alles passt vom Vibe her perfekt zur Anthropic-Strategie der letzten zwei Jahre: organisch verbessern, in der bestehenden Nische tiefer graben, keine spektakulären Akquisitionen.

    Was Opus 4.7 besser macht

    Anthropic positioniert das Release als „meaningful gains" in drei Bereichen:

    • Coding – stärkere Performance bei komplexen Refactorings und Multi-File-Aufgaben
    • Agentic Work – verlässlichere Tool-Nutzung und längere autonome Sessions
    • Professional Tasks – bessere Outputs für Slides, Dokumente und Interface-Drafts

    Konkret heißt das: Bessere Vision, stärkeres Multimodal-Verständnis und höhere Output-Qualität für UI-Mockups und Präsentationen. Opus 4.6 war hier bereits stark – aber 4.7 schließt einige der Lücken, die im direkten Vergleich mit GPT-5.4 und Gemini 3.1 Pro noch sichtbar waren.

    Für unsere täglichen Workflows mit Claude Code als GTM-Layer ist das die wichtigste Änderung: Aufgaben, die mit 4.6 noch zwei Anläufe brauchten, landen mit 4.7 öfter im ersten Versuch.

    Die Preisstruktur (und warum sie trotzdem teurer wird)

    Auf dem Papier ist nichts passiert:

    Modell Input ($/Mio.) Output ($/Mio.)
    Claude Opus 4.6 $5 $25
    Claude Opus 4.7 $5 $25

    In der Praxis steigt deine Rechnung trotzdem – aus zwei Gründen.

    Grund 1: Der neue Tokenizer

    Anthropic hat den Tokenizer überarbeitet, um die Textverarbeitung zu verbessern. Der Trade-off: Für bestimmte Kontext-Typen erzeugt derselbe Input jetzt mehr Tokens als vorher.

    Was das in Euro bedeutet, hängt extrem von deinem Workload ab. Wer hauptsächlich Markdown und Code verarbeitet, wird wahrscheinlich kaum Unterschiede sehen. Wer mit strukturierten Daten, Logs oder bestimmten Sprach-Mixen arbeitet, sollte die ersten Tage genau hinschauen.

    Grund 2: Das neue xhigh-Effort-Level

    Für Claude Code gibt es ein neues Effort-Level zwischen high und max: xhigh.

    Und – das ist der entscheidende Punkt – xhigh ist der neue Default für Premium-Seats.

    Anthropic selbst gibt die Größenordnung an: Bei xhigh-Effort kann Opus 4.7 ungefähr 20–30 % mehr kosten als Opus 4.6 bei max-Effort.

    Das ist keine kleine Hausnummer. Wer mit Claude Code intensive Coding-Sessions fährt, sollte die folgenden Hebel kennen:

    • Effort runterstellen: high oder medium für Standard-Aufgaben, xhigh nur für komplexe Refactorings
    • Server-Managed Settings nutzen: Defaults für das gesamte Team zentral steuern
    • Spend Controls anpassen: Vor allem wenn „extra usage" aktiviert ist

    Was sich für Seats ändert

    Die Default-Modelle werden umgestellt:

    Seat-Typ Neuer Default Wo?
    Standard Claude Sonnet 4.6 (unverändert) Cowork, Claude Code, Chat
    Premium Claude Opus 4.7 Cowork, Claude Code, Chat

    Wer als Premium-User keine Action ergreift, arbeitet ab heute automatisch mit dem teureren, leistungsstärkeren Modell. Für die meisten Teams ist das gewollt – aber es ist gut zu wissen, dass es passiert.

    Praktische Empfehlungen für Teams

    Was wir heute in unseren eigenen Setups angepasst haben:

    1. Spend Report jetzt exportieren Wer wissen will, wie sich die Tokenizer-Änderung auf den eigenen Workload auswirkt, braucht eine Baseline. Den Spend Report der letzten 30 Tage exportieren – bevor 4.7 die Zahlen verzerrt.

    2. Effort-Defaults bewusst setzen xhigh ist gut für komplexe Aufgaben, aber teuer als Default für jeden Prompt. Server-Managed Settings nutzen, um pro Team oder Projekt sinnvolle Defaults zu definieren.

    3. Spend Controls nachschärfen Vor allem für Organisationen mit aktivem „extra usage" – die Limits sollten zur neuen Realität passen. Sonst gibt es Ende des Monats eine Überraschung.

    4. Opus 4.7 nicht für alles verwenden Sonnet 4.6 ist für 80 % der Aufgaben weiterhin die richtige Wahl. Opus 4.7 ist das Premium-Modell – es lohnt sich da, wo es wirklich gebraucht wird. Mehr dazu in unserem Model Routing Guide.

    Lovable unterstützt Opus 4.7 ab Tag 1

    Lovable hat Opus 4.7 direkt zum Launch ausgerollt – mit zwei interessanten Datenpunkten:

    • 40 % weniger Turns: Lovables eigene Benchmarks zeigen, dass Opus 4.7 dieselben Tasks in 40 % weniger Turns abschließt als das Vorgängermodell. Das ist exakt der Effekt, der die höheren Per-Turn-Kosten ausgleicht.
    • Discounted Rates bis 30. April: Lovable Builders bekommen während der Einführungsphase rabattierte Konditionen – die Credits reichen also spürbar weiter, gerade in den ersten zwei Wochen.

    Aus der Community gibt es bereits konkrete Praxiseindrücke. Alex Cinovoj bringt es auf den Punkt:

    „Fewer turns mit Opus 4.7 lassen mich mehr Steps in einem einzigen Flow verketten, ohne auf Blocker zu stoßen. Das hat den manuellen Nachjustier-Aufwand reduziert."

    Wichtig: „Weniger Turns" ist ein Effizienz-Gewinn – nicht automatisch ein Qualitäts-Gewinn. Die Frage, ob auch User Satisfaction und Output-Qualität proportional steigen, ist berechtigt. Unsere Beobachtung aus den ersten Tagen: Bei klar umrissenen Vibe-Coding-Tasks ja, bei sehr offen formulierten Prompts bleibt das Ergebnis stark vom Initial-Prompt abhängig – Opus 4.7 denkt zwar gründlicher, aber es liest keine Gedanken.

    Für die Praxis heißt das: Die Effizienz-Gewinne nutzen, aber den Prompt nicht aus den Augen verlieren. Ein gut spezifizierter Task in 3 Turns ist immer besser als ein schwammiger in 5.

    Einordnung: Was bedeutet das strategisch?

    Opus 4.7 ist kein dramatisches Release. Kein neuer Benchmark-Rekord, keine spektakuläre neue Modalität. Es ist ein klassisches Anthropic-Release: organisches Verbessern in der bestehenden Nische, mit Fokus auf das, was Enterprise-Kunden wirklich brauchen – Coding, Agentic Work, professionelle Outputs.

    Das passt zur Linie, die wir in unserer OpenAI vs. Anthropic Timeline seit zwei Jahren beobachten: Anthropic baut, OpenAI kauft. Während OpenAI mit Talk-Show-Akquisitionen Schlagzeilen macht, schiebt Anthropic alle 3–4 Monate ein Modell-Update raus, das im Coding-Benchmark wieder ein paar Punkte zulegt.

    Für Teams, die bereits auf Claude setzen, ist das die beste Nachricht: Verlässlichkeit, planbare Verbesserungen, keine bösen Überraschungen. Die einzige Überraschung – das neue xhigh-Default und die Tokenizer-Änderung – ist transparent kommuniziert. Genau so soll es sein.

    Mehr aus der AI-Strategie-Serie

    TeilenLinkedInWhatsAppE-Mail

    Related Articles

    Schachfiguren als Metapher für den Plattformkonflikt zwischen Anthropic und Lovable
    April 14, 20263 min

    Anthropic baut einen App-Builder – und greift Europas Vibe-Coding-Star Lovable an

    Geleakte Screenshots zeigen einen integrierten App-Builder in Claude. Was das für Lovable, das europäische Startup-Ökosy…

    Read more
    Das AI-Rennen in 31 Meilensteinen: Die komplette OpenAI vs. Anthropic Timeline
    April 11, 20262 min

    Das AI-Rennen in 31 Meilensteinen: Die komplette OpenAI vs. Anthropic Timeline

    Von GPT-4o bis Project Glasswing: Jede Akquisition, jeder Modell-Launch, jedes Produktrelease von OpenAI und Anthropic a…

    Read more
    Claude Mythos & Project Glasswing: Wenn KI zu gut hackt, wird sie zur Waffe der Verteidiger
    April 11, 20264 min

    Claude Mythos & Project Glasswing: Wenn KI zu gut hackt, wird sie zur Waffe der Verteidiger

    Anthropics neues Frontier-Modell Claude Mythos Preview ist so gut im Finden von Sicherheitslücken, dass es nicht öffentl…

    Read more
    Claude Mythos Preview: Benchmarks, Exploit-Ketten und die technischen Details
    April 11, 20266 min

    Claude Mythos Preview: Benchmarks, Exploit-Ketten und die technischen Details

    Claude Mythos Preview ist nicht inkrementell besser – es ist eine andere Kategorie. 93,9% auf SWE-bench, 100% auf Cybenc…

    Read more
    OpenAI kauft einen \"Fernsehsender\". Anthropic baut die Zukunft der Software-Entwicklung. Und Google? Spielt ein ganz anderes Spiel.
    April 11, 20265 min

    OpenAI kauft einen \"Fernsehsender\". Anthropic baut die Zukunft der Software-Entwicklung. Und Google? Spielt ein ganz anderes Spiel.

    OpenAI kauft TBPN, ein Jony-Ive-Hardware-Startup und baut einen Desktop-Superapp. Anthropic macht Claude zum Developer-O…

    Read more
    Claude Managed Agents Architektur – Gehirn verbunden mit mehreren Händen für Tools und Sandboxes
    April 8, 20265 min

    Claude Managed Agents: Anthropics Griff nach der Agent-Runtime

    Anthropic launcht Managed Agents in der Public Beta – eine gehostete Runtime, die das 'Gehirn' von den 'Händen' entkoppe…

    Read more
    OpenClaw Preisschock: So vermeidest du die $500-Rechnung
    April 5, 20262 min

    OpenClaw Preisschock: So vermeidest du die $500-Rechnung

    Anthropic streicht die Third-Party-Tool-Abdeckung unter Claude-Abos. Wer OpenClaw ohne Vorbereitung betreibt, zahlt bald…

    Read more
    Warum wir Deutschlands ersten Vibe Coder einstellen
    March 25, 20264 min

    Warum wir Deutschlands ersten Vibe Coder einstellen

    Wir suchen Germany's First Vibe Coder. Kein Marketing-Gag, sondern die logische Konsequenz aus der Art, wie wir 2026 Sof…

    Read more
    Vergleichstabelle der Vibe-Coding-Tools Cursor Lovable Kiro Claude Code und TraeDeep Dive
    February 20, 202611 min

    Vibe Coding Tools im Vergleich: Cursor vs. Lovable vs. Kiro vs. Claude Code vs. Trae (2026)

    Welches Vibe-Coding-Tool ist das richtige für dich? Wir vergleichen 15+ Tools in 7 Kategorien – von AI-IDEs über App-Bui…

    Read more