Premiers tests avec MCPHost
Dans ce billet, nous allons explorer comment utiliser un LLM local (ollama), et essayer d' étendre ses fonctionnalités avec les serveurs MCP.
Comment utiliser MCPHost
$ go install github.com/mark3labs/mcphost@latestMCPHost est un outil en ligne de commande (CLI) qui permet à des grands modèles de langage (LLM) d’interagir avec des outils externes via le protocole Model Context Protocol (MCP).
En clair : il joue le rôle d’hôte (« host ») qui gère la connexion entre le modèle de langage, les « serveurs MCP » proposant des services/outils, et l’interface utilisateur ou script.
On utilise -m ollama:llama3.2 pour lancer mcphost avec une connexion à ollama.
Dans cet exemple, on voit bien que ollama n'a pas la réponse lorsqu'on lui demande l'heure
$ mcphost -m ollama:llama3.2
=> what time is it ?
I don't have real-time access to the current time.Ajout d'un premier serveur MCP
A présent, nous allons ajouter un serveur MCP pour que le LLM puisse enrichir ses réponses avec la date et l'heure
$ cat ~/.mcphost.json
{
"mcpServers": {
"time": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"mcp/time"
]
}
}
}
Nous reposons la question maintenant:
$ mcphost -m ollama:llama3.2
=> What time is it ?
The current time is 8:06 PM UTC.A présent, mcphost peut répondre à notre question, après avoir contacté le serveur MCP fournissant le service de temps.