BullshitBench – Welche KI erkennt Nonsense?

    BullshitBench – Welche KI erkennt Nonsense?

    Till FreitagTill Freitag9. Juli 2025Updated: March 10, 20265 min read
    Till Freitag

    TL;DR: „91 % der Nonsense-Fragen erkennt Claude Sonnet 4.6 – GPT-5.4 schafft nur 48 %. Wer KI für Entscheidungen nutzt, sollte wissen, wie gut sein Modell Bullshit filtert."

    — Till Freitag

    In 30 Sekunden

    KI-Modelle werden immer besser im Texte schreiben, Coden und Analysieren. Aber wie gut sind sie darin, Unsinn zu erkennen? Der Open-Source-Benchmark BullshitBench von Peter Gostev stellt genau diese Frage – und die Antworten sind ernüchternd.

    Das Ergebnis: Über 45 % aller getesteten Nonsense-Fragen werden von KI-Modellen im Durchschnitt einfach akzeptiert. Nur die besten Modelle erkennen zuverlässig, wenn eine Frage keinen Sinn ergibt.

    Was ist BullshitBench?

    BullshitBench ist ein Benchmark, der KI-Modelle mit 100 absichtlich unsinnigen Fragen konfrontiert, die aber plausibel klingen. Die Fragen decken fünf Fachbereiche ab:

    • Software (40 Fragen)
    • Finanzen (15 Fragen)
    • Recht (15 Fragen)
    • Medizin (15 Fragen)
    • Physik (15 Fragen)

    Jede Frage nutzt eine von 13 Nonsense-Techniken – zum Beispiel:

    Technik Was passiert
    Fabricated Authority Erfundene Experten oder Frameworks werden zitiert
    Plausible Nonexistent Framework Es wird auf nicht-existierende Methodologien verwiesen
    Specificity Trap Extreme Detailtiefe täuscht Fachwissen vor
    Cross-Domain Stitching Konzepte aus verschiedenen Fachbereichen werden unsinnig kombiniert
    Nested Nonsense Mehrere Schichten von Unsinn werden ineinander verschachtelt
    Confident Extrapolation Selbstbewusste, aber völlig falsche Schlussfolgerungen

    Die Bewertung erfolgt durch ein 3-Richter-Panel aus Claude Sonnet 4.6, GPT-5.2 und Gemini 3.1 Pro – drei Top-Modelle, die die Antworten nach drei Kategorien einstufen.

    Die drei Bewertungskategorien

    • 🟢 Clear Pushback: Das Modell erkennt den Nonsense klar und weist ihn zurück
    • 🟡 Partial Challenge: Das Modell bemerkt Probleme, geht aber trotzdem auf die falsche Prämisse ein
    • 🔴 Accepted Nonsense: Das Modell behandelt den Unsinn als valide Frage

    Die Ergebnisse: Wer erkennt Bullshit?

    Top 10 – Die besten Nonsense-Detektoren

    Rang Modell Erkannt (🟢) Teilweise (🟡) Akzeptiert (🔴)
    1 Claude Sonnet 4.6 (High) 91 % 6 % 3 %
    2 Claude Opus 4.5 (High) 90 % 8 % 2 %
    3 Claude Sonnet 4.6 89 % 9 % 2 %
    4 Claude Opus 4.6 (High) 87 % 10 % 3 %
    5 Claude Opus 4.6 83 % 14 % 3 %
    6 Claude Sonnet 4.5 (High) 79 % 13 % 8 %
    7 Claude Opus 4.5 79 % 10 % 11 %
    8 Qwen 3.5 397b A17b (High) 78 % 17 % 5 %
    9 Claude Haiku 4.5 (High) 77 % 12 % 11 %
    10 Claude Sonnet 4.5 74 % 13 % 13 %

    Und die anderen?

    Die Ergebnisse für GPT- und Gemini-Modelle sind deutlich schwächer:

    Modell Erkannt (🟢) Akzeptiert (🔴)
    GPT-5.4 48 % 16 %
    GPT-5.2 38 % 23 %
    GPT-5.1 25 % 31 %
    GPT-5 21 % 37 %
    Gemini 3 Pro Preview 48 % 37 %
    Gemini 2.5 Pro 20 % 58 %
    o3 26 % 58 %
    DeepSeek V3.2 10 % 69 %
    Grok 4.1 Fast 10 % 80 %

    Das Muster ist eindeutig: Anthropics Claude-Modelle dominieren die Spitze mit großem Abstand. Die Top 7 sind ausnahmslos Claude-Modelle. Erst auf Platz 8 taucht mit Qwen 3.5 ein Nicht-Anthropic-Modell auf.

    Warum ist das wichtig?

    1. Halluzination ist nicht das einzige Problem

    Die KI-Community diskutiert intensiv über Halluzinationen – wenn Modelle Fakten erfinden. BullshitBench zeigt ein verwandtes, aber anderes Problem: Modelle, die falschen Input nicht hinterfragen, sondern einfach mitspielen.

    Wenn du einer KI eine Frage stellst, die auf einer falschen Annahme basiert, und sie antwortet dir selbstbewusst – dann hast du ein größeres Problem als eine Halluzination.

    2. Das „Ja-Sager"-Problem

    Viele Modelle sind darauf trainiert, hilfreich zu sein. Das führt zu einem Bias: Lieber eine Antwort geben als gar keine. BullshitBench zeigt, welche Modelle diesen Reflex überwinden und stattdessen sagen: „Moment, diese Frage ergibt keinen Sinn."

    3. Domain-Unterschiede sind real

    Spannend sind die Unterschiede zwischen den Fachbereichen:

    • Physik: Hier erkennen die meisten Modelle Nonsense am besten (bis zu 100 % bei Claude Sonnet 4.6)
    • Software: Mittleres Feld – hier fallen selbst gute Modelle öfter rein
    • Recht: Besonders schwierig – plausibel klingende juristische Nonsense-Fragen erwischen viele Modelle kalt

    Das heißt: Die Zuverlässigkeit deiner KI hängt stark davon ab, in welchem Fachbereich du sie einsetzt.

    Was bedeutet das für die Praxis?

    Für Entscheider

    Wenn ihr KI für geschäftskritische Entscheidungen nutzt – Vertragsanalyse, Finanzplanung, medizinische Texte – dann ist die Fähigkeit, Unsinn zu erkennen, mindestens so wichtig wie die Fähigkeit, gute Antworten zu geben.

    Prüft, ob euer Modell auch mal „Nein" sagen kann.

    Für Entwickler

    Wenn ihr KI-gestützte Workflows baut, denkt an Validierungsschritte. Ein Modell, das 60 % der Nonsense-Fragen akzeptiert, wird auch fehlerhafte User-Inputs ohne Rückfrage verarbeiten.

    Für KI-Interessierte

    BullshitBench ist Open Source und auf GitHub verfügbar. Ihr könnt eigene Modelle testen, Fragen beitragen oder die Methodik nachvollziehen.

    Die Meta-Frage: Wird es besser?

    Eine der spannendsten Visualisierungen im BullshitBench-Viewer zeigt die Entwicklung über Zeit: Werden neuere Modelle besser im Nonsense-Erkennen?

    Die Antwort ist differenziert:

    • Anthropic: Klarer Aufwärtstrend – jede Generation wird besser
    • OpenAI: Kaum Verbesserung zwischen GPT-5 und GPT-5.4 bei der Nonsense-Erkennung
    • Google: Gemini zeigt Fortschritte in neueren Versionen, bleibt aber hinter Claude zurück

    Das deutet darauf hin, dass Nonsense-Erkennung kein automatisches Nebenprodukt von „größeren Modellen" ist, sondern gezielt trainiert werden muss.

    Fazit

    BullshitBench ist einer der erfrischendsten Benchmarks der letzten Zeit. Statt zu messen, wie gut ein Modell eine Aufgabe löst, misst er, wie gut ein Modell erkennt, dass es die Aufgabe gar nicht lösen sollte.

    Für alle, die KI produktiv einsetzen, ist das eine zentrale Fähigkeit. Denn das gefährlichste Szenario ist nicht eine KI, die „Ich weiß nicht" sagt – sondern eine, die selbstbewusst auf Bullshit antwortet.

    Drei Dinge zum Mitnehmen:

    1. Anthropics Claude dominiert bei der Nonsense-Erkennung mit großem Abstand
    2. Die Domain macht den Unterschied – testet euer Modell in eurem Fachbereich
    3. Nonsense-Erkennung ist ein eigenständiges Qualitätsmerkmal, das in Standard-Benchmarks oft fehlt

    BullshitBench v2 Viewer öffnenGitHub Repository

    TeilenLinkedInWhatsAppE-Mail

    Related Articles

    OpenClaw Preisschock: So vermeidest du die $500-Rechnung
    April 5, 20262 min

    OpenClaw Preisschock: So vermeidest du die $500-Rechnung

    Anthropic streicht die Third-Party-Tool-Abdeckung unter Claude-Abos. Wer OpenClaw ohne Vorbereitung betreibt, zahlt bald…

    Read more
    Warum wir von ChatGPT auf Claude umgestiegen sind – und was wir dabei über LLMs gelernt haben
    February 20, 20265 min

    Warum wir von ChatGPT auf Claude umgestiegen sind – und was wir dabei über LLMs gelernt haben

    Wir haben 18 Monate mit ChatGPT gearbeitet – und sind dann auf Claude umgestiegen. Hier ist der ehrliche Vergleich aller…

    Read more
    Visualisierung von Kimi K2.6 Long-Horizon Agents: Halbmond als Moonshot-Symbol mit verteilten Sub-Agent-Knoten über einem KoordinationsrasterDeep Dive
    April 21, 20268 min

    Kimi K2.6: Warum die spannendste KI-Optimierung 2026 nicht Intelligenz ist – sondern Dauer

    Moonshot AI hat gestern Kimi K2.6 open-sourced. 1 Billion Parameter, 300 Sub-Agents, 13 Stunden autonome Codeoptimierung…

    Read more
    Editoriale Illustration zum Launch von Claude Design – warmer sandfarbener Hintergrund mit dem rost-orangefarbenen Claude-Spark-Motiv, glasmorphe UI-Panels mit Wireframe, Color-Tokens und Dashboard-Mockup, dezente Adobe-rote und Figma-violette Akzente als Hinweis auf die Marktdisruption.
    April 17, 20265 min

    Claude Design ist da: Wie Anthropic Labs Figma, Adobe und Wix in einem Tag $30 Mrd. Marktwert kostete

    Anthropic hat am 17. April 2026 Claude Design gelaunched – das erste Anthropic-Labs-Produkt für visuelle Arbeit. Powered…

    Read more
    Claude Opus 4.7 ist da: Was Du jetzt über Tokenizer, xhigh und Spend Controls wissen musst
    April 17, 20265 min

    Claude Opus 4.7 ist da: Was Du jetzt über Tokenizer, xhigh und Spend Controls wissen musst

    Anthropic hat Claude Opus 4.7 veröffentlicht. Gleicher Preis wie 4.6, aber spürbar besser bei Coding, Agenten und visuel…

    Read more
    monday.com MCP Prompts – natürliche Sprache steuert Work Management
    April 15, 20266 min

    Die 10 besten monday MCP Prompts für den Arbeitsalltag

    Copy-Paste-fertige Prompts für Claude, Cursor und ChatGPT – mit denen du monday.com per natürlicher Sprache steuerst. Vo…

    Read more
    monday.com MCP-Integrationen – AI-Agents verbinden sich mit der Work-Management-Plattform
    April 15, 20265 min

    monday.com MCP: Alle verfügbaren Tools und Integrationen im Überblick

    monday.com bietet mit dem Platform MCP und dem Apps MCP zwei leistungsstarke MCP-Server – plus native Integrationen für …

    Read more
    Schachfiguren als Metapher für den Plattformkonflikt zwischen Anthropic und Lovable
    April 14, 20263 min

    Anthropic baut einen App-Builder – und greift Europas Vibe-Coding-Star Lovable an

    Geleakte Screenshots zeigen einen integrierten App-Builder in Claude. Was das für Lovable, das europäische Startup-Ökosy…

    Read more
    Geopolitische KI-Landschaft zwischen westlicher und östlicher TechnologieDeep Dive
    April 13, 20268 min

    Chinas KI-Offensive: Von Hunter Alpha bis DeepSeek V4 auf Huawei-Chips

    Ein anonymes 1T-Modell, eine Verwechslung mit DeepSeek, und die Enthüllung, dass Xiaomi dahintersteckt. Gleichzeitig ste…

    Read more