
P9 AI Fluency Index: Wie Christoph Janz mit Claude ein Benchmark-Tool für AI-pilled Companies gebaut hat
TL;DR: „Christoph Janz (Point Nine) hat ai-pilled.com mit Claude in kurzer Zeit gebaut – inkl. simulationsbasiertem Test über 28 Mrd. Antwortkombinationen. Eine Blaupause dafür, wie VCs heute Tools für ihr Portfolio bauen."
— Till FreitagWenn ein VC zum Builder wird
Christoph Janz, Partner bei Point Nine Capital, gehört zu den profiliertesten SaaS-Investoren Europas. Letzte Woche hat er auf LinkedIn etwas Bemerkenswertes angekündigt: den P9 AI Fluency Index – ein Online-Tool unter ai-pilled.com, mit dem Founders und CEOs benchmarken können, wie weit ihre Organisation auf der AI-Adoption-Reise wirklich ist.
Das Spannende daran ist nicht nur das Tool selbst, sondern die Art, wie es entstanden ist: gebaut mit Claude, in einem Vibe-Coding-Flow, von einem Investor – nicht von einem Engineering-Team.
Was der P9 AI Fluency Index misst
Janz beschreibt das Problem präzise: „One of the big challenges for many founders right now is to get their organizations fully 'AI-pilled'." Viele Teams nutzen ChatGPT individuell, aber organisationale AI-Fluency – also der Reifegrad, mit dem ein Unternehmen AI in Prozesse, Produkte und Kultur integriert – ist eine andere Liga.
Der Index baut auf veröffentlichten Rubrics und Posts von Zapier, Finai, Ramp, Jobber, Shopify und Anthropic auf. Das sind nicht zufällig genau die Companies, die in den letzten 18 Monaten am lautesten dokumentiert haben, wie sie intern mit AI arbeiten – von Tobi Lütkes berühmtem „AI usage is now a baseline expectation" bis zu Anthropics eigenen Skills-Frameworks.
Founders bekommen am Ende:
- Einen Score auf einer skalierten Achse (0–100)
- Per-Dimension-Auswertung (z. B. Tooling, Kultur, Workflows, Leadership)
- Konkrete Empfehlungen für den nächsten Reifegrad
Drei WOW-Momente beim Bauen mit Claude
Janz teilt in seinem Post drei Momente, die exemplarisch zeigen, wo Vibe Coding 2026 angekommen ist – und die wir bei Till Freitag fast täglich in eigenen Projekten erleben.
1. „Verifiziere die Mathematik – für alle 28 Milliarden Kombinationen"
Janz war zu faul, die Scoring-Logik händisch zu prüfen. Sein Prompt: „verify that the results are correct for all possible combinations" – bei mehr als 28 Milliarden möglichen Antwortprofilen ein Ding der Unmöglichkeit für menschliches Brute-Forcing.
Was Claude daraus machte:
- Einen Simulator, der beliebige Antwortkombinationen instant durchspielt und Score plus Empfehlungen ausgibt.
- Ein Test-Set über 2.000 Kombinationen, inklusive Random-Sampling und Edge Cases (all-low, all-high, mixed, asymmetric).
- Invariant-Checks: Score zwischen 0 und 100, Per-Dimension-Score nie höher als das Maximum, Empfehlungen kontextuell sinnvoll.
Das ist genau das Pattern, das wir in unserem Vibe Coding Marketing Hub als „Trust Layer" bezeichnen: Generative AI baut nicht nur das Feature, sie baut auch den Test, der das Feature absichert.
2. Claude als „besser als durchschnittlicher Designer"
Janz' Einschätzung: Claude Design fühle sich an wie die Arbeit mit einem „pretty good designer. Not Top 5%, but above average". Für ein Side-Project, das schnell live gehen muss, mehr als ausreichend.
Der Workflow, den er beschreibt – Element kommentieren, Alternativen in einer Minute bekommen – ist exakt der, den auch Cursor, Lovable und Claude Artifacts in den Mainstream gebracht haben. Was 2024 noch eine Stunde Stack-Overflow-Recherche war, ist heute ein 20-Sekunden-Inline-Prompt.
3. Easter Eggs One-Shotting
Im Footer von ai-pilled.com versteckt sich ein Easter Egg, das Janz nach eigenen Worten „almost one-shotted" hat: ein einziger Prompt plus ein paar Refinements. Das ist die Art von verspieltem Detail, die Software früher nicht hatte – weil niemand den ROI für eine halbe Tag Engineering rechtfertigen konnte. Mit Claude kostet es 3 Minuten.
Warum das für Founders relevant ist
Drei Take-aways, die über das Tool selbst hinausgehen:
AI-Fluency wird messbar. Was bisher Bauchgefühl war („Mein Team nutzt AI schon irgendwie"), bekommt eine Skala. Das ist die Voraussetzung dafür, Adoption als Management-Disziplin zu betreiben – Thema, das uns in unserem AI-First-People-First-Manifesto seit Monaten beschäftigt.
VCs werden zu Tool-Buildern. Ein Partner einer Top-Tier-VC-Firma baut in Eigenregie ein produktionsreifes Web-Tool für sein Portfolio. Das wäre vor zwei Jahren undenkbar gewesen – nicht aus Mangel an Ideen, sondern aus Mangel an Bandwidth.
„Grounded in published rubrics" ist der neue Goldstandard. Janz nennt seine Quellen explizit – Zapier, Ramp, Shopify, Anthropic. Das macht das Tool credible und referenzierbar. AI-generierte Inhalte ohne Quellenfundament verlieren in 2026 schnell an Vertrauen.
Für wen sich der Index lohnt
- Founders & CEOs, die einen ehrlichen Status-Check ihrer Organisation wollen
- Operations- und People-Leads, die einen gemeinsamen Wortschatz für AI-Adoption brauchen
- Boards & Investoren, die Portfolio-Unternehmen auf der Reifekurve einordnen wollen
Der Index ist kostenlos und dauert ein paar Minuten. Wer ihn ausfüllt, sollte ihn anschließend mit dem eigenen Leadership-Team teilen – die spannendsten Gespräche entstehen erfahrungsgemäß über die Lücke zwischen Selbstbild und gemeinsamem Score.
Unser Fazit
Der P9 AI Fluency Index ist gleichzeitig ein nützliches Benchmarking-Tool und ein Case Study für moderne, vibe-coded SaaS-Tools: schnell gebaut, sauber abgesichert, mit Quellen geerdet. Christoph Janz zeigt, dass die Linie zwischen „Investor", „Operator" und „Builder" 2026 endgültig verschwimmt.
Wer wissen will, wie weit das eigene Unternehmen wirklich AI-pilled ist, sollte 10 Minuten in den Test investieren: ai-pilled.com.
Und wer Lust hat, das eigene Pendant – einen internen Maturity-Check, einen Diagnostic, ein Benchmarking-Tool – für die eigene Organisation zu bauen: Genau dafür gibt es uns. Sprich mit uns über euer Vibe-Coding-Projekt.








