Dans ce billet, nous allons explorer comment utiliser un LLM local (ollama), et essayer d' étendre ses fonctionnalités avec les serveurs MCP.

Comment utiliser MCPHost

$ go install github.com/mark3labs/mcphost@latest

MCPHost est un outil en ligne de commande (CLI) qui permet à des grands modèles de langage (LLM) d’interagir avec des outils externes via le protocole Model Context Protocol (MCP).


En clair : il joue le rôle d’hôte (« host ») qui gère la connexion entre le modèle de langage, les « serveurs MCP » proposant des services/outils, et l’interface utilisateur ou script.

On utilise -m ollama:llama3.2 pour lancer mcphost avec une connexion à ollama.
Dans cet exemple, on voit bien que ollama n'a pas la réponse lorsqu'on lui demande l'heure

$ mcphost -m ollama:llama3.2
=> what time is it ? 
I don't have real-time access to the current time.

Ajout d'un premier serveur MCP

A présent, nous allons ajouter un serveur MCP pour que le LLM puisse enrichir ses réponses avec la date et l'heure

$ cat ~/.mcphost.json 
{
  "mcpServers": {
    "time": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "mcp/time"
      ]
    }
  }
}

Nous reposons la question maintenant:

$ mcphost -m ollama:llama3.2
=> What time is it ?
The current time is 8:06 PM UTC.

A présent, mcphost peut répondre à notre question, après avoir contacté le serveur MCP fournissant le service de temps.