🚀 OpenClaw + Kimi K2.5 sur Ollama Nvidia :
L’Agent IA Gratuit le Plus Puissant
Ollama vient de passer sur les derniers GPU Nvidia B300 — et le premier modèle à tourner dessus est Kimi K2.5. Connectez-le à OpenClaw en une seule commande, gratuitement, avec recherche web incluse.
- Introduction : la mise à jour qui change tout
- Qu’est-ce qu’Ollama ?
- Kimi K2.5 : le modèle qui tourne sur Nvidia B300
- Pourquoi le Nvidia B300 est crucial
- Installation étape par étape
- Connecter Kimi K2.5 à OpenClaw
- Utiliser Claude Code avec Kimi K2.5
- Bonus : GLM-5 Cloud également disponible
- Les limites d’utilisation gratuite
- Agent Swarm : la puissance distribuée
- Tableau de performances comparatif
- Voir la vidéo complète
🌟 Introduction : La Mise à Jour Qui Change Tout
Cette mise à jour est une vraie révolution pour les utilisateurs d’OpenClaw qui cherchent à maximiser la puissance de leur agent IA sans débourser un centime. Non seulement vous bénéficiez de performances améliorées grâce au hardware Nvidia B300, mais vous disposez aussi d’une recherche web native incluse dans l’API.
🛠️ Qu’est-ce qu’Ollama ?
Ollama est une plateforme qui vous permet de faire tourner des modèles d’IA puissants — localement sur votre machine ou dans le cloud — de façon totalement gratuite. Pensez-y comme un App Store, mais pour les cerveaux IA : vous lui dites quel modèle vous voulez, et il vous le sert immédiatement.
Modèles locaux
Faites tourner des LLM directement sur votre CPU/GPU sans envoyer de données vers des serveurs tiers.
Cloud gratuit
Accédez à des modèles cloud hébergés par Ollama gratuitement, désormais sur Nvidia B300.
Une seule commande
Installation et lancement d’un modèle en une ligne dans votre terminal. Pas plus simple.
Compatible OpenClaw
S’intègre nativement avec OpenClaw et Claude Code pour des workflows d’agents IA avancés.
💡 Bon à savoir : Ollama supporte des dizaines de modèles différents. Celui que l’on met en avant ici est Kimi K2.5, mais GLM-5 Cloud est aussi disponible avec cette mise à jour Nvidia B300.
🌙 Kimi K2.5 : Le Modèle de Moonshot AI
Kimi K2.5 est développé par Moonshot AI. C’est un modèle multimodal de dernière génération entraîné sur environ 15 000 milliards de tokens (images et textes combinés). Il est particulièrement adapté pour une utilisation avec OpenClaw.
Capacités de Kimi K2.5
- Analyse et compréhension d’images et de documents visuels
- Compréhension avancée du langage naturel multilingue
- Génération et débogage de code dans tous les langages
- Raisonnement complexe et résolution de problèmes multi-étapes
- Fenêtre de contexte de 256 000 tokens (l’équivalent d’un petit livre)
- Recherche web native incluse dans l’API Ollama
- Architecture Agent Swarm pour les tâches parallèles
💪 Pourquoi le Nvidia B300 Est un Game Changer
Nvidia fabrique les puces les plus puissantes pour l’IA. Le B300 est leur dernier GPU de datacenter, conçu spécifiquement pour faire tourner des grands modèles de langage plus rapidement que jamais. Pour les utilisateurs d’OpenClaw, ça se traduit concrètement par :
🔑 Résumé : Ollama a mis à jour son cloud gratuit pour utiliser le Nvidia B300 — spécifiquement pour Kimi K2.5 et les modèles GLM-5. Cela améliore significativement les performances avec des sorties plus rapides et plus fiables.
⚙️ Installation Étape par Étape
Ouvrez votre terminal
Assurez-vous qu’Ollama est installé sur votre machine. Si ce n’est pas le cas, rendez-vous sur ollama.com pour l’installation.
Lancez Kimi K2.5 Cloud
Collez cette commande dans votre terminal pour démarrer Kimi K2.5 directement depuis le cloud Ollama sur Nvidia B300 :
ollama run kimi-k2.5:cloud
C’est tout. Le modèle se lance et vous pouvez l’utiliser immédiatement depuis le terminal.
Testez le modèle
Pour vérifier que tout fonctionne, posez une question simple. Le modèle devrait répondre très rapidement :
Vous: Combien font 2 + 2 ? Kimi K2.5: 4 ✓ (réponse quasi-instantanée)
Lancez OpenClaw avec Kimi K2.5
Copiez la commande de lancement OpenClaw avec Ollama et exécutez-la. OpenClaw se connecte automatiquement au modèle Nvidia :
openclaw --model ollama/kimi-k2.5:cloud
Configuration via l’onboarding (optionnel)
Vous pouvez aussi configurer Ollama comme modèle par défaut via l’assistant d’onboarding intégré :
openclaw onboard install # → Définissez l'URL de base Ollama # → Choisissez le modèle : kimi-k2.5:cloud # → Redémarrez la passerelle
🦅 Connecter Kimi K2.5 à OpenClaw
Une fois installé, OpenClaw reconnaît automatiquement le modèle Kimi K2.5 Cloud via Ollama. Vous pouvez le sélectionner depuis le menu déroulant de l’interface TUI (Terminal User Interface).
🎯 Point clé : Dans l’interface OpenClaw, ouvrez le sélecteur de modèle et choisissez « Kimi K2.5 Cloud » — c’est le modèle Ollama cloud. Tapez simplement working? pour tester la connexion. Le modèle répond instantanément.
Ce que ça vous apporte dans OpenClaw
- Accès gratuit à un modèle de dernière génération sans clé API
- Recherche web native disponible directement dans l’agent
- Architecture Agent Swarm pour les tâches complexes distribuées
- Basculement facile entre modèles depuis le menu déroulant
- Utilisation possible comme sous-agent dans des workflows plus larges
- Compatible avec les commandes standard d’OpenClaw
💻 Utiliser Claude Code avec Kimi K2.5
Ce n’est pas tout ! Vous pouvez aussi faire tourner Claude Code — l’agent de codage le plus puissant d’Anthropic — en utilisant Kimi K2.5 Cloud via Ollama comme backend. Gratuitement.
claude --model ollama/kimi-k2.5:cloud "Analyse mon projet" # Ou en mode vibe coding claude --vibe --model ollama/kimi-k2.5:cloud
Intelligence de Claude Code
Profitez de l’interface et des outils avancés de Claude Code avec la puissance de Kimi K2.5.
Zéro coût
Ni clé API Anthropic, ni abonnement. Ollama + Kimi K2.5 = Claude Code gratuit.
Nvidia B300
Les réponses sont bien plus rapides qu’auparavant grâce au hardware de nouvelle génération.
🌐 Bonus : GLM-5 Cloud Aussi Disponible
La mise à jour Nvidia B300 d’Ollama supporte également les modèles GLM-5 de ZhipuAI. Vous pouvez les utiliser exactement de la même façon que Kimi K2.5 :
# Lancer GLM-5 Cloud ollama run glm5:cloud # Avec OpenClaw openclaw --model ollama/glm5:cloud
⚠️ À noter : GLM-5 Cloud est un modèle plus lourd que Kimi K2.5, donc le premier téléchargement peut prendre un peu plus de temps. Mais une fois lancé, il tourne aussi sur Nvidia B300.
⚖️ Les Limites d’Utilisation Gratuite
Ollama cloud est gratuit mais il existe des limites de tokens qui se réinitialisent régulièrement. Voici comment les gérer intelligemment :
Stratégies pour rester dans les limites
- Utiliser Kimi K2.5 uniquement pour la recherche web (sous-agent dédié)
- Réserver les tokens pour les tâches à forte valeur ajoutée
- Combiner avec d’autres modèles locaux pour les tâches répétitives
- Configurer Kimi K2.5 comme sous-agent dans OpenClaw, pas comme modèle principal
- La plupart des utilisateurs normaux ne dépassent pas les limites au quotidien
💡 Astuce pro : Configurez Kimi K2.5 comme sous-agent dans OpenClaw, dédié à la recherche web. Vous préservez votre quota pour les tâches critiques et profitez de la recherche web gratuite pour les petites tâches de collecte d’informations.
🐝 Agent Swarm : La Puissance Distribuée
L’une des fonctionnalités les plus remarquables de Kimi K2.5 est l’Agent Swarm. Au lieu de résoudre un grand problème seul et séquentiellement, il divise la tâche en sous-parties et les envoie à plusieurs mini-agents travaillant en parallèle.
Décomposition
Une tâche complexe est automatiquement découpée en sous-tâches indépendantes.
Parallélisation
Chaque sous-tâche est confiée à un mini-agent spécialisé qui travaille simultanément.
Résultat supérieur
Les tâches complexes sont terminées plus vite et avec plus de précision qu’un seul agent séquentiel.
📊 Tableau de Performances Comparatif
🎯 Verdict Final
Kimi K2.5 sur Ollama Nvidia B300 est aujourd’hui la meilleure option gratuite pour alimenter OpenClaw. Une seule commande, zéro paiement, recherche web incluse, Agent Swarm intégré — il n’y a aucune raison de ne pas l’essayer.

- 00:00 — Introduction : la mise à jour Ollama Nvidia
- 00:58 — Présentation d’Ollama et de ses modèles cloud
- 01:57 — Lancer Kimi K2.5 dans le terminal avec Ollama
- 02:36 — Connecter Kimi K2.5 à OpenClaw
- 02:52 — Utiliser Claude Code avec Kimi K2.5 (vibe coding)
- 03:28 — Lancer GLM-5 Cloud via Ollama
- 04:09 — Onboarding OpenClaw avec Ollama (méthode alternative)
- 05:20 — Les limites d’utilisation gratuite et comment les gérer
- 06:47 — Qu’est-ce qu’Ollama ? Explication simple
- 07:04 — Kimi K2.5 : contexte 256K tokens et Agent Swarm
- 07:33 — Le Nvidia B300 expliqué simplement
- 07:58 — Agent Swarm : traitement parallèle des tâches
- 08:14 — Ressources et communauté AI Profit Boardroom
