Die Kommunikation zwischen Anwendungen und KI-Modellen ist in der Regel komplex und zumeist individuell auf die jeweilige Anwendung abzustimmen. Das "Model Context Protocol" hilft dabei, die Kommunikation zwischen der Anwendung und einem Large-Language-Modell zu standardisieren und zu vereinfachen. Wir schauen uns das Protokoll näher an und zeigen einige praktische Beispiele.
Das Model Context Protocol (MCP) ist ein offenes Protokoll, das entwickelt wurde, um die nahtlose Integration zwischen Large Language Models (LLMs), Anwendungen (Tools) und externen Datenquellen zu ermöglichen. Die Firma Anthropic [1] hat das Protokoll erstmals im November 2024 angekündigt und gilt somit offiziell als Hauptentwickler. Zum Redaktionsschluss dieser Ausgabe wurde gerade Version 2025-06-18 der Protokollspezifikation veröffentlicht. Wichtig zu erwähnen ist, dass Anthropic von Anfang an versucht, das Protokoll als offenen Standard zu etablieren und eng mit der Community zusammenarbeitet um das Protokoll weiterzuentwickeln. Neben dem GitHub-Repository [2] steht unter [3] auch eine Webseite mit einer sehr umfangreichen Dokumentation der Protokollspezifikation zur Verfügung.
Standardisierte Kommunikation
So wie USB eine universelle Schnittstelle geschaffen hat, die es ermöglicht, jedes USB-Gerät mit jedem USB-Anschluss zu verbinden und damit die Notwendigkeit gerätespezifischer Anschlüsse beseitigt, schafft MCP einen standardisierten Weg für KI-Modelle, um sich mit verschiedenen Datenquellen und Anwendungen zu verbinden. Vor der Einführung von USB benötigte jedes Gerät seinen eigenen proprietären Anschluss. Ähnlich mussten Entwickler vor MCP benutzerdefinierte Integrationen für jede Kombination von KI-Anwendung und Datenquelle erstellen.
MCP etabliert einen Standard, der es jedem kompatiblen Client erlaubt, mit jedem ebenfalls kompatiblen Server zu arbeiten. Dies reduziert die Komplexität bei der Integration von KI-Modellen erheblich, da es mithilfe von MCP nicht mehr notwendig ist, individuelle Schnittstellen für die unterschiedlichen Anwendungen zu entwickeln. So ist es beispielsweise möglich, natürliche Sprache zu verwenden, um mit einer bestimmten Anwendung zu kommunizieren und Daten abzufragen.
Das Model Context Protocol (MCP) ist ein offenes Protokoll, das entwickelt wurde, um die nahtlose Integration zwischen Large Language Models (LLMs), Anwendungen (Tools) und externen Datenquellen zu ermöglichen. Die Firma Anthropic [1] hat das Protokoll erstmals im November 2024 angekündigt und gilt somit offiziell als Hauptentwickler. Zum Redaktionsschluss dieser Ausgabe wurde gerade Version 2025-06-18 der Protokollspezifikation veröffentlicht. Wichtig zu erwähnen ist, dass Anthropic von Anfang an versucht, das Protokoll als offenen Standard zu etablieren und eng mit der Community zusammenarbeitet um das Protokoll weiterzuentwickeln. Neben dem GitHub-Repository [2] steht unter [3] auch eine Webseite mit einer sehr umfangreichen Dokumentation der Protokollspezifikation zur Verfügung.
Standardisierte Kommunikation
So wie USB eine universelle Schnittstelle geschaffen hat, die es ermöglicht, jedes USB-Gerät mit jedem USB-Anschluss zu verbinden und damit die Notwendigkeit gerätespezifischer Anschlüsse beseitigt, schafft MCP einen standardisierten Weg für KI-Modelle, um sich mit verschiedenen Datenquellen und Anwendungen zu verbinden. Vor der Einführung von USB benötigte jedes Gerät seinen eigenen proprietären Anschluss. Ähnlich mussten Entwickler vor MCP benutzerdefinierte Integrationen für jede Kombination von KI-Anwendung und Datenquelle erstellen.
MCP etabliert einen Standard, der es jedem kompatiblen Client erlaubt, mit jedem ebenfalls kompatiblen Server zu arbeiten. Dies reduziert die Komplexität bei der Integration von KI-Modellen erheblich, da es mithilfe von MCP nicht mehr notwendig ist, individuelle Schnittstellen für die unterschiedlichen Anwendungen zu entwickeln. So ist es beispielsweise möglich, natürliche Sprache zu verwenden, um mit einer bestimmten Anwendung zu kommunizieren und Daten abzufragen.
Stellen Sie sich einen LDAP-Server mit einer großen Benutzerdatenbank vor. Um die Daten aus dem Server auszulesen, ist ein LDAP-Client notwendig. Innerhalb eines Terminals ist dies typischerweise das Tool ldapsearch. Je nach Art der Anfrage fällt die Abfrage mitunter komplex aus. Mithilfe von MCP ist es möglich, eine Anfrage einfach in natürlicher Sprache an den LDAP-Server zu senden. Also beispielsweise, "Zeig mir alle Benutzer an, die in dem Directory existieren", oder, "Zeig mir alle gesperrten Benutzer aus dem Directory an".
Client-Server-Architektur
MCP basiert auf einem klassischen Client-Server-Modell. Der MCP-Server fungiert dabei als zentrale Schnittstelle zwischen einem Client, einem KI-Modell und der eigentlichen Anwendung beziehungsweise einem Service. Ein Server ist dabei durchaus in der Lage, parallel mit mehreren Clients zu arbeiten und Anfragen weiterzuleiten. Entsprechend kann auch ein Client mit mehreren Servern kommunizieren. Das Schaubild greift die Analogie zum USB-Schnittstellen-Beispiel auf, um die einzelnen MCP-Komponenten darzustellen.
MCP sorgt für eine standardisierte Kommunikation zwischen verschiedenen Komponenten.
DirKeeper als MCP-Server
Für ein praktisches Beispiel verweisen wir auf einen experimentellen MCP-Server [4], der es ermöglicht, mit dem 389 Directory Server [5] über natürliche Sprache zu kommunizieren. Anstatt komplexe LDAP-Abfragen zu schreiben, können Sie einfache Fragen in natürlicher Sprache stellen wie "Zeige mir alle Benutzer" oder "Finde Benutzer in der IT-Abteilung". Sie richten den Server über die Python-Umgebung mit den folgenden Kommandos ein:
Zur einfachen Verwaltung von KI-Modellen kommt Ollama [6] zum Einsatz. In diesem Artikel verwenden wir das LLM qwen3 [7], das Sie nach der Installation von ollama einfach mittels ollama pull qwen3 aus der Registry laden können. Als MCP-Client setzen wir das Terminal-Tool mcp-cli [8] ein, da es für einfache Tests mehr als ausreicht. Möchten Sie stattdessen lieber einen grafischen Client verwenden, bietet sich Claude Desktop [9] von Anthropic an.
Die mcp-cli-Software laden Sie nun einfach mithilfe von git auf Ihr System:
Der MCP-Client verwendet für die Konfiguration die Datei "server_config.json". Das Listing zeigt hierfür ein Beispiel. Für Ihre eigenen Tests passen Sie bitte den Pfad zum uv-Paketmanager an und verweisen Sie auf den Ordner, in dem Sie den DirKeep MCP-Server zuvor gespeichert haben. Über Umgebungsvariablen hinterlegen Sie Details zu Ihrem 389 Directory Server. Sollten Sie keine solche Serverinstanz haben, können Sie das Skript "ds-create.sh" aus dem DirKeeper-Git-Verzeichnis verwenden, um eine Instanz innerhalb eines Docker- oder wahlweise auch eines Podman-Containers zu installieren.
Listing: server_config.json
### Über eine JSON-Datei hinterlegen Sie Infos über den MCP-Server und Ihre 389-Directory-Server-Instanz.
{
"mcpServers": {
"dirkeeper": {
"command": "/Users/tscherf/.local/bin/uv",
"args": [
"--directory",
"/Users/tscherf/git/389-mcp/ DirKeeper",
"run",
"server.py"
],
"env": {
"LDAP_URL": "ldap://localhost:43399",
"LDAP_BASE_DN": "dc=example,dc=com",
"LDAP_BIND_DN": "cn=Directory Manager",
"LDAP_BIND_PASSWORD": "password"
}
}
}
}
Hat dies soweit alles geklappt, können Sie eine Abfrage an den 389-Directory-Server stellen:
uv run mcp-cli cmd --provider=ollama --model=qwen3 --server dirkeeper --prompt "show me all users"
Auch wenn der MCP-Server DirKeeper sich noch in einem frühen Stadium befindet, zeigt die mit dem fastmcp Framework [10] entwickelte Software sehr schön, was mit dem Model Context Protocol alles möglich ist und welche Vorteile der Einsatz von MCP mit sich bringen kann.
Fazit
DirKeeper demonstriert eindrucksvoll die Möglichkeiten des Model Context Protocol (MCP) als standardisierte Brücke zwischen LLMs und spezialisierten Systemen, wie einem LDAP-Server. Durch MCP wird eine sichere Kommunikation auf Basis natürlicher Sprache ermöglicht, ohne dass hierfür Software-spezifische Schnittstellen entwickelt werden müssen. Da bereits jede Menge MCP-Server für die unterschiedlichsten Anwendungen zur Verfügung stehen, können Administratoren und Entwickler ihrem Spieltrieb freien Lauf lassen. Hat der Artikel Sie neugierig gemacht, für welche Anwendungen und Tools bereits MCP-Server zur Verfügung stehen, empfehlen wir einen Blick auf die Webseite unter [11]. Hier finden Sie eine aktuelle Liste von MCP-Server-Implementierungen. Zum Redaktionsschluss standen bereits über 15.000 MCP-Implementierungen zur Verfügung.