Schematische Darstellung des Model Context Protocol: KI-Gehirn verbunden mit Datenbanken, Kalender, CRM und Dokumenten

    MCP für Einsteiger: Alles, was du über das Model Context Protocol wissen musst

    Till FreitagTill Freitag12. März 20266 min read
    Till Freitag

    TL;DR: „MCP ist das USB-C für KI: ein offener Standard, der jedes KI-Modell mit jedem Tool verbindet – ohne Custom-Code für jede Integration."

    — Till Freitag

    Was ist MCP – und warum reden alle darüber?

    Stell dir vor, du kaufst ein neues Smartphone. Es hat USB-C – und damit funktioniert es sofort mit jedem Ladekabel, jedem Monitor, jeder Festplatte. Du brauchst keinen Adapter, kein proprietäres Kabel, keine Sonderlösung.

    MCP ist das USB-C für KI.

    Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Modelle mit externen Datenquellen und Tools verbindet. Statt dass jede KI-Anwendung eine eigene Integration für jedes Tool braucht, gibt es jetzt ein einheitliches Protokoll.

    Initiiert wurde MCP von Anthropic (den Machern von Claude) – und es wird bereits von Google, Microsoft, OpenAI und dutzenden Tool-Anbietern unterstützt.

    Das Problem, das MCP löst

    Ohne MCP sieht die Welt so aus:

    ChatGPT → eigene API → Slack
    ChatGPT → eigene API → Google Drive
    ChatGPT → eigene API → CRM
    Claude  → eigene API → Slack
    Claude  → eigene API → Google Drive
    Claude  → eigene API → CRM

    6 individuelle Integrationen – und das nur für 2 KI-Modelle und 3 Tools. In der Realität sind es hunderte.

    Mit MCP:

    ChatGPT ─┐
    Claude   ─┤── MCP ──┬── Slack
    Gemini   ─┘         ├── Google Drive
                         └── CRM

    Ein Protokoll, universelle Kompatibilität. Jedes KI-Modell spricht MCP, jedes Tool bietet einen MCP-Server an – fertig.

    Wie funktioniert MCP technisch?

    MCP folgt einer simplen Client-Server-Architektur:

    Komponente Rolle Beispiel
    MCP Host Die Anwendung, die du nutzt Claude Desktop, VS Code, dein eigenes Tool
    MCP Client Stellt die Verbindung her Eingebaut im Host
    MCP Server Stellt Daten & Funktionen bereit Slack-Server, CRM-Server, Dateisystem-Server

    Was ein MCP-Server anbieten kann

    Ein MCP-Server kann drei Arten von Fähigkeiten bereitstellen:

    1. Tools – Aktionen, die die KI ausführen kann (E-Mail senden, Daten aktualisieren, Suche starten)
    2. Resources – Daten, die die KI lesen kann (Dokumente, Datenbankeinträge, Dateien)
    3. Prompts – Vorgefertigte Prompt-Templates für wiederkehrende Aufgaben

    Ein konkretes Beispiel

    Du öffnest Claude und sagst:

    „Finde alle offenen Support-Tickets mit Priorität ‚Hoch' und erstelle eine Zusammenfassung für das Team-Meeting."

    Was passiert im Hintergrund:

    1. Claude erkennt: „Ich brauche Zugriff auf das Ticketsystem"
    2. Der MCP-Client im Host verbindet sich mit dem Ticketsystem-MCP-Server
    3. Der Server gibt die relevanten Tickets zurück (Resource)
    4. Claude analysiert und fasst zusammen
    5. Optional: Claude erstellt über ein Slack-MCP-Server-Tool eine Nachricht im Team-Channel

    Kein Code. Kein Export. Kein Copy-Paste.

    Warum MCP ein Game-Changer ist

    1. Schluss mit dem N×M-Problem

    Bisher musste jeder KI-Anbieter für jedes Tool eine eigene Integration bauen. Bei 10 KI-Modellen und 100 Tools sind das potenziell 1.000 Integrationen. Mit MCP braucht jedes Tool nur einen MCP-Server und jedes KI-Modell nur einen MCP-Client. Das sind 110 statt 1.000 Implementierungen.

    2. Offen statt proprietär

    MCP ist ein offener Standard – kein Vendor-Lock-in. Wenn du heute einen MCP-Server für dein CRM baust, funktioniert er mit Claude, ChatGPT, Gemini und jedem zukünftigen Modell.

    3. Sicherheit eingebaut

    MCP hat ein klares Berechtigungsmodell:

    • Nutzer entscheiden, welche Server verbunden werden
    • Jeder Server hat definierte Fähigkeiten (kein Wildcard-Zugriff)
    • Bestätigungsdialoge vor kritischen Aktionen (Daten löschen, E-Mails senden)
    • Lokale Ausführung möglich – Daten müssen nicht in die Cloud

    4. Kontextbewusstsein

    Das ist der eigentliche Durchbruch: KI-Modelle bekommen Kontext aus deinen echten Datenquellen. Statt „Schreibe mir eine E-Mail" (generisch) wird es „Schreibe eine Follow-up-Mail an den Kunden, basierend auf seinem letzten Support-Ticket und dem offenen Angebot in unserem CRM" (kontextreich).

    MCP in der Praxis: Was heute schon geht

    Claude Desktop

    Die Desktop-App von Anthropic war der erste MCP-Host. Du kannst lokale MCP-Server verbinden und Claude damit Zugriff auf dein Dateisystem, Datenbanken oder APIs geben.

    Entwicklungsumgebungen

    • VS Code (via GitHub Copilot) unterstützt MCP-Server
    • Cursor, Windsurf und andere AI-IDEs nutzen MCP für Tool-Zugriff
    • Lovable nutzt MCP-Konnektoren für Notion, Linear, Jira und mehr

    Verfügbare MCP-Server

    Die Community wächst rasant. Einige Beispiele:

    Kategorie MCP-Server
    Produktivität Google Drive, Notion, Confluence, Obsidian
    Entwicklung GitHub, GitLab, Sentry, PostgreSQL
    Kommunikation Slack, Discord, E-Mail
    CRM & Sales Salesforce, HubSpot, monday CRM
    Projektmanagement Linear, Jira, monday.com, Asana
    Dateisystem Lokale Dateien, S3, Google Cloud Storage

    Auf mcp.so und glama.ai/mcp/servers findest du eine aktuelle Übersicht mit hunderten Servern.

    Use Case: monday CRM + Claude + PandaDoc

    Ein konkretes Beispiel, das wir bei Kunden umsetzen:

    Szenario: Ein Vertriebsteam nutzt monday CRM für die Pipeline und PandaDoc für Angebote.

    Ohne MCP:

    1. Deal in monday CRM öffnen → Kundendaten manuell kopieren
    2. PandaDoc öffnen → neues Angebot anlegen → Daten einfügen
    3. Angebot versenden → Status manuell in monday updaten
    4. Follow-up-Termin im Kalender anlegen

    Mit Claude + MCP:

    „Der Deal mit Acme Corp ist spruchreif. Erstelle ein Angebot über das Enterprise-Paket, versende es und plane einen Follow-up in 5 Tagen."

    Claude verbindet sich via MCP mit monday CRM (Deal-Daten, Kontaktperson, Konditionen), erstellt über den PandaDoc-MCP-Server das Angebot mit den richtigen Daten, versendet es und legt den Follow-up als Aktivität in monday an.

    Ergebnis: 15 Minuten manuelle Arbeit → 30 Sekunden. Und der Vertrieb kann sich auf das konzentrieren, was zählt: Kundenbeziehungen.

    💡 Genau solche Workflows setzen wir für unsere Kunden auf. Ob monday CRM, PandaDoc, Slack oder dein individueller Stack – wir beraten dich, wie MCP deine Prozesse transformiert.

    → Kostenlose MCP-Beratung anfragen

    MCP vs. bisherige Ansätze

    Ansatz Vorteil Nachteil
    Custom APIs Volle Kontrolle Für jede KI×Tool-Kombi separat
    Plugins (z.B. ChatGPT) Einfach für Endnutzer Plattform-Lock-in
    Function Calling Flexibel Kein Standard, jeder Anbieter anders
    MCP Universell, offen, standardisiert Noch jung, nicht alle Tools dabei

    Warum kein Weg an MCP vorbeiführt

    Die Industrie hat sich committed

    • Anthropic hat MCP initiiert und als Open Source veröffentlicht
    • Google DeepMind unterstützt MCP in Gemini
    • OpenAI hat MCP-Support für ChatGPT und den Agents SDK angekündigt
    • Microsoft integriert MCP in Copilot Studio und VS Code
    • Salesforce, Atlassian, Notion und dutzende weitere bauen MCP-Server

    Wenn alle großen Player einen Standard unterstützen, wird er zum De-facto-Standard.

    KI ohne Kontext ist nutzlos

    Das beste Sprachmodell der Welt ist wenig wert, wenn es nur auf Trainingsdaten zugreifen kann. MCP löst dieses Problem fundamental: KI bekommt Echtzeit-Zugriff auf deine Daten und Tools.

    Der Netzwerkeffekt

    Je mehr MCP-Server es gibt, desto wertvoller wird jeder MCP-fähige Client – und umgekehrt. Wir befinden uns am Anfang eines Netzwerkeffekts, der sich selbst beschleunigt.

    Composable AI wird zum Standard

    Die Zukunft gehört zusammensetzbaren KI-Systemen: Du wählst dein Modell, deine Tools und dein Interface – alles verbunden über MCP. Kein monolithisches System, sondern ein modulares Ökosystem.

    Was du jetzt tun solltest

    Als Unternehmen

    1. Prüfe deine Tool-Landschaft: Welche deiner Tools bieten bereits MCP-Server an?
    2. Pilotprojekt starten: Verbinde Claude Desktop mit 2–3 internen Datenquellen und teste den Produktivitätsgewinn
    3. Strategie entwickeln: Plane, welche internen Systeme als MCP-Server exponiert werden sollten

    Als Entwickler

    1. MCP-Spezifikation lesen: spec.modelcontextprotocol.io
    2. Ersten MCP-Server bauen: Die SDKs (TypeScript, Python) machen den Einstieg einfach
    3. Bestehende APIs wrappen: Fast jede REST-API lässt sich als MCP-Server bereitstellen

    Als Endnutzer

    1. Claude Desktop installieren und mit einem lokalen MCP-Server experimentieren
    2. Workflows identifizieren, die von KI-Tool-Integration profitieren
    3. Tools bevorzugen, die MCP-Support ankündigen oder bereits haben

    Fazit: MCP ist die Infrastruktur der KI-Zukunft

    MCP ist nicht einfach ein weiteres Protokoll. Es ist die fehlende Schicht zwischen KI-Modellen und der realen Welt. So wie HTTP das Web ermöglicht hat, wird MCP die nächste Generation von KI-Anwendungen ermöglichen.

    Der Standard ist offen, die großen Player sind an Bord und das Ökosystem wächst exponentiell. Wer heute in MCP investiert – sei es als Nutzer, Entwickler oder Unternehmen – ist bereit für eine Zukunft, in der KI nicht nur redet, sondern handelt.

    MCP ist kein Trend. Es ist Infrastruktur.

    TeilenLinkedInWhatsAppE-Mail

    Related Articles

    Die nächste Generation CRM: Warum monday CRM dazugehört – und das Interface der Zukunft ein Chat ist
    July 15, 20257 min

    Die nächste Generation CRM: Warum monday CRM dazugehört – und das Interface der Zukunft ein Chat ist

    Das CRM der Zukunft ist kein Dashboard – es ist ein Chat. Warum monday CRM zur nächsten Generation gehört und wie MCP da…

    Read more
    Warum wir von ChatGPT auf Claude umgestiegen sind – und was wir dabei über LLMs gelernt haben
    February 20, 20265 min

    Warum wir von ChatGPT auf Claude umgestiegen sind – und was wir dabei über LLMs gelernt haben

    Wir haben 18 Monate mit ChatGPT gearbeitet – und sind dann auf Claude umgestiegen. Hier ist der ehrliche Vergleich aller…

    Read more
    Hunter Alpha: Das größte kostenlose KI-Modell der Welt – und steckt DeepSeek V4 dahinter?
    March 13, 20264 min

    Hunter Alpha: Das größte kostenlose KI-Modell der Welt – und steckt DeepSeek V4 dahinter?

    1 Billion Parameter, 1 Million Token Kontext, komplett kostenlos – Hunter Alpha ist das größte je veröffentlichte KI-Mod…

    Read more
    monday.com Board verbunden mit OpenClaw KI-Agent als zentrales Gedächtnis und Steuerungssystem
    March 12, 20266 min

    monday.com + OpenClaw: Wie monday.com zum Gehirn deines KI-Agenten wird

    monday.com ist mehr als ein Projektmanagement-Tool – es kann das Langzeitgedächtnis und Execution Log eines KI-Agenten s…

    Read more
    ClickUp vs Asana vs monday.com – KI-Funktionen im Vergleich (2026)
    March 10, 20266 min

    ClickUp vs Asana vs monday.com – KI-Funktionen im Vergleich (2026)

    Alle drei Plattformen bieten jetzt KI-Assistenten, Agents und Automatisierung – aber die Ansätze sind grundverschieden. …

    Read more
    Open-Source-LLMs im Vergleich 2026 – 20+ Modelle, die du kennen solltest
    March 7, 20266 min

    Open-Source-LLMs im Vergleich 2026 – 20+ Modelle, die du kennen solltest

    Von Llama über Qwen bis Hunter Alpha: Alle wichtigen Open-Source-LLMs im Überblick – mit GitHub-Stars, Parametern, Lizen…

    Read more
    GGUF, GGML, Safetensors – welches Format für dein lokales AI-Setup?
    March 1, 20264 min

    GGUF, GGML, Safetensors – welches Format für dein lokales AI-Setup?

    Wer AI lokal nutzen will, stolpert schnell über Dateiformate. GGUF, GGML, Safetensors – was ist was, wann brauchst du we…

    Read more
    122 Milliarden Parameter auf deinem Laptop – was Qwen3.5 für dein Business bedeutet
    February 28, 20263 min

    122 Milliarden Parameter auf deinem Laptop – was Qwen3.5 für dein Business bedeutet

    Alibabas Qwen3.5 schlägt GPT-5-mini in fast allen Benchmarks – und läuft lokal auf einem Laptop. Was das für Unternehmen…

    Read more
    NanoClaw: Der schlanke Nachfolger von OpenClaw – KI-Agent für die Hosentasche
    February 21, 20263 min

    NanoClaw: Der schlanke Nachfolger von OpenClaw – KI-Agent für die Hosentasche

    NanoClaw ist der minimalistische Nachfolger von OpenClaw – ein KI-Agent, der auf Raspberry Pi läuft, per WhatsApp steuer…

    Read more