P9 AI Fluency Index: Wie Christoph Janz mit Claude ein Benchmark-Tool für AI-pilled Companies gebaut hat

    P9 AI Fluency Index: Wie Christoph Janz mit Claude ein Benchmark-Tool für AI-pilled Companies gebaut hat

    9. Mai 20264 min Lesezeit
    Till Freitag

    TL;DR: „Christoph Janz (Point Nine) hat ai-pilled.com mit Claude in kurzer Zeit gebaut – inkl. simulationsbasiertem Test über 28 Mrd. Antwortkombinationen. Eine Blaupause dafür, wie VCs heute Tools für ihr Portfolio bauen."

    — Till Freitag

    Wenn ein VC zum Builder wird

    Christoph Janz, Partner bei Point Nine Capital, gehört zu den profiliertesten SaaS-Investoren Europas. Letzte Woche hat er auf LinkedIn etwas Bemerkenswertes angekündigt: den P9 AI Fluency Index – ein Online-Tool unter ai-pilled.com, mit dem Founders und CEOs benchmarken können, wie weit ihre Organisation auf der AI-Adoption-Reise wirklich ist.

    Das Spannende daran ist nicht nur das Tool selbst, sondern die Art, wie es entstanden ist: gebaut mit Claude, in einem Vibe-Coding-Flow, von einem Investor – nicht von einem Engineering-Team.

    Was der P9 AI Fluency Index misst

    Janz beschreibt das Problem präzise: „One of the big challenges for many founders right now is to get their organizations fully 'AI-pilled'." Viele Teams nutzen ChatGPT individuell, aber organisationale AI-Fluency – also der Reifegrad, mit dem ein Unternehmen AI in Prozesse, Produkte und Kultur integriert – ist eine andere Liga.

    Der Index baut auf veröffentlichten Rubrics und Posts von Zapier, Finai, Ramp, Jobber, Shopify und Anthropic auf. Das sind nicht zufällig genau die Companies, die in den letzten 18 Monaten am lautesten dokumentiert haben, wie sie intern mit AI arbeiten – von Tobi Lütkes berühmtem „AI usage is now a baseline expectation" bis zu Anthropics eigenen Skills-Frameworks.

    Founders bekommen am Ende:

    • Einen Score auf einer skalierten Achse (0–100)
    • Per-Dimension-Auswertung (z. B. Tooling, Kultur, Workflows, Leadership)
    • Konkrete Empfehlungen für den nächsten Reifegrad

    Drei WOW-Momente beim Bauen mit Claude

    Janz teilt in seinem Post drei Momente, die exemplarisch zeigen, wo Vibe Coding 2026 angekommen ist – und die wir bei Till Freitag fast täglich in eigenen Projekten erleben.

    1. „Verifiziere die Mathematik – für alle 28 Milliarden Kombinationen"

    Janz war zu faul, die Scoring-Logik händisch zu prüfen. Sein Prompt: „verify that the results are correct for all possible combinations" – bei mehr als 28 Milliarden möglichen Antwortprofilen ein Ding der Unmöglichkeit für menschliches Brute-Forcing.

    Was Claude daraus machte:

    • Einen Simulator, der beliebige Antwortkombinationen instant durchspielt und Score plus Empfehlungen ausgibt.
    • Ein Test-Set über 2.000 Kombinationen, inklusive Random-Sampling und Edge Cases (all-low, all-high, mixed, asymmetric).
    • Invariant-Checks: Score zwischen 0 und 100, Per-Dimension-Score nie höher als das Maximum, Empfehlungen kontextuell sinnvoll.

    Das ist genau das Pattern, das wir in unserem Vibe Coding Marketing Hub als „Trust Layer" bezeichnen: Generative AI baut nicht nur das Feature, sie baut auch den Test, der das Feature absichert.

    2. Claude als „besser als durchschnittlicher Designer"

    Janz' Einschätzung: Claude Design fühle sich an wie die Arbeit mit einem „pretty good designer. Not Top 5%, but above average". Für ein Side-Project, das schnell live gehen muss, mehr als ausreichend.

    Der Workflow, den er beschreibt – Element kommentieren, Alternativen in einer Minute bekommen – ist exakt der, den auch Cursor, Lovable und Claude Artifacts in den Mainstream gebracht haben. Was 2024 noch eine Stunde Stack-Overflow-Recherche war, ist heute ein 20-Sekunden-Inline-Prompt.

    3. Easter Eggs One-Shotting

    Im Footer von ai-pilled.com versteckt sich ein Easter Egg, das Janz nach eigenen Worten „almost one-shotted" hat: ein einziger Prompt plus ein paar Refinements. Das ist die Art von verspieltem Detail, die Software früher nicht hatte – weil niemand den ROI für eine halbe Tag Engineering rechtfertigen konnte. Mit Claude kostet es 3 Minuten.

    Warum das für Founders relevant ist

    Drei Take-aways, die über das Tool selbst hinausgehen:

    1. AI-Fluency wird messbar. Was bisher Bauchgefühl war („Mein Team nutzt AI schon irgendwie"), bekommt eine Skala. Das ist die Voraussetzung dafür, Adoption als Management-Disziplin zu betreiben – Thema, das uns in unserem AI-First-People-First-Manifesto seit Monaten beschäftigt.

    2. VCs werden zu Tool-Buildern. Ein Partner einer Top-Tier-VC-Firma baut in Eigenregie ein produktionsreifes Web-Tool für sein Portfolio. Das wäre vor zwei Jahren undenkbar gewesen – nicht aus Mangel an Ideen, sondern aus Mangel an Bandwidth.

    3. „Grounded in published rubrics" ist der neue Goldstandard. Janz nennt seine Quellen explizit – Zapier, Ramp, Shopify, Anthropic. Das macht das Tool credible und referenzierbar. AI-generierte Inhalte ohne Quellenfundament verlieren in 2026 schnell an Vertrauen.

    Für wen sich der Index lohnt

    • Founders & CEOs, die einen ehrlichen Status-Check ihrer Organisation wollen
    • Operations- und People-Leads, die einen gemeinsamen Wortschatz für AI-Adoption brauchen
    • Boards & Investoren, die Portfolio-Unternehmen auf der Reifekurve einordnen wollen

    Der Index ist kostenlos und dauert ein paar Minuten. Wer ihn ausfüllt, sollte ihn anschließend mit dem eigenen Leadership-Team teilen – die spannendsten Gespräche entstehen erfahrungsgemäß über die Lücke zwischen Selbstbild und gemeinsamem Score.

    Unser Fazit

    Der P9 AI Fluency Index ist gleichzeitig ein nützliches Benchmarking-Tool und ein Case Study für moderne, vibe-coded SaaS-Tools: schnell gebaut, sauber abgesichert, mit Quellen geerdet. Christoph Janz zeigt, dass die Linie zwischen „Investor", „Operator" und „Builder" 2026 endgültig verschwimmt.

    Wer wissen will, wie weit das eigene Unternehmen wirklich AI-pilled ist, sollte 10 Minuten in den Test investieren: ai-pilled.com.

    Und wer Lust hat, das eigene Pendant – einen internen Maturity-Check, einen Diagnostic, ein Benchmarking-Tool – für die eigene Organisation zu bauen: Genau dafür gibt es uns. Sprich mit uns über euer Vibe-Coding-Projekt.

    TeilenLinkedInWhatsAppE-Mail

    Verwandte Artikel

    Schachfiguren als Metapher für den Plattformkonflikt zwischen Anthropic und Lovable
    14. April 20263 min

    Anthropic baut einen App-Builder – und greift Europas Vibe-Coding-Star Lovable an

    Geleakte Screenshots zeigen einen integrierten App-Builder in Claude. Was das für Lovable, das europäische Startup-Ökosy…

    Weiterlesen
    Editoriale Illustration zum Launch von Claude Design – warmer sandfarbener Hintergrund mit dem rost-orangefarbenen Claude-Spark-Motiv, glasmorphe UI-Panels mit Wireframe, Color-Tokens und Dashboard-Mockup, dezente Adobe-rote und Figma-violette Akzente als Hinweis auf die Marktdisruption.
    17. April 20265 min

    Claude Design ist da: Wie Anthropic Labs Figma, Adobe und Wix in einem Tag $30 Mrd. Marktwert kostete

    Anthropic hat am 17. April 2026 Claude Design gelaunched – das erste Anthropic-Labs-Produkt für visuelle Arbeit. Powered…

    Weiterlesen
    Claude Opus 4.7 ist da: Was Du jetzt über Tokenizer, xhigh und Spend Controls wissen musst
    17. April 20265 min

    Claude Opus 4.7 ist da: Was Du jetzt über Tokenizer, xhigh und Spend Controls wissen musst

    Anthropic hat Claude Opus 4.7 veröffentlicht. Gleicher Preis wie 4.6, aber spürbar besser bei Coding, Agenten und visuel…

    Weiterlesen
    Drei Architekturen im Vergleich – strukturiertes Grid, offenes Mesh und neuronales Netz als Symbole für Copilot, OpenClaw und Claude
    4. April 20267 min

    Copilot vs. OpenClaw vs. Claude: Enterprise AI Agents im Vergleich 2026

    Drei Philosophien, ein Ziel: KI-Agenten im Enterprise. Microsoft Copilot (Plattform), OpenClaw (Open Source), Claude (AP…

    Weiterlesen
    Smartphone sendet Aufgabe an Desktop-Computer, auf dem ein AI Agent autonom arbeitet
    22. März 20264 min

    Claude Dispatch: Dein AI Agent arbeitet, während du unterwegs bist

    Anthropic hat mit Dispatch ein Feature gelauncht, das Claude vom Chatbot zum digitalen Mitarbeiter macht. Du gibst vom H…

    Weiterlesen
    Microsoft und Anthropic Logos verschmelzen zu Copilot Cowork – autonome KI-Agenten im Enterprise
    10. März 20264 min

    Copilot Cowork: Microsoft setzt auf Claude – und was das für OpenAI bedeutet

    Microsoft launcht Copilot Cowork – powered by Anthropics Claude. 400M+ Nutzer bekommen einen autonomen Agenten für Mails…

    Weiterlesen
    Claude Marketplace als zentraler Hub für Enterprise-KI-Tools
    8. März 20263 min

    Claude Marketplace: Warum Anthropic gerade den smartesten Plattform-Move der AI-Branche macht

    Anthropic launcht den Claude Marketplace – 0% Provision, volle Enterprise-Bindung. Warum das kein Marketplace ist, sonde…

    Weiterlesen
    Das AI-Rennen in 31 Meilensteinen: Die komplette OpenAI vs. Anthropic Timeline
    11. April 20262 min

    Das AI-Rennen in 31 Meilensteinen: Die komplette OpenAI vs. Anthropic Timeline

    Von GPT-4o bis Project Glasswing: Jede Akquisition, jeder Modell-Launch, jedes Produktrelease von OpenAI und Anthropic a…

    Weiterlesen
    Claude Mythos & Project Glasswing: Wenn KI zu gut hackt, wird sie zur Waffe der Verteidiger
    11. April 20264 min

    Claude Mythos & Project Glasswing: Wenn KI zu gut hackt, wird sie zur Waffe der Verteidiger

    Anthropics neues Frontier-Modell Claude Mythos Preview ist so gut im Finden von Sicherheitslücken, dass es nicht öffentl…

    Weiterlesen