VS Code + Claude Code + Ollama
Guide complet Mac Mini M4

💡 Pourquoi cette stack ?
Claude Code coupe ta session toutes les 5h et les gros projets font exploser les tokens. En branchant Ollama comme proxy Anthropic-compatible, on contourne les deux limites sans rien changer au workflow. Le KIT-STARTER ICA ajoute la mémoire persistante entre sessions.
Le problème
Session 5h, tokens limités, coût Opus élevé, contexte perdu à chaque /clear.
Ollama Cloud
Proxy Anthropic-compatible. Claude Code croit parler à Anthropic, mais route vers DeepSeek / Qwen / Kimi — hébergé aux USA.
KIT-STARTER ICA
Framework de mémoire. /recall au démarrage, /archive à la fermeture — le contexte survit entre sessions.
🗺️ Installation complète — 8 étapes (~15 min)
Installer Visual Studio Code PRIORITÉ
Télécharge la version Apple Silicon (ARM64) pour des performances natives sur Mac Mini M4.
brew install --cask visual-studio-code code --version
Ou : code.visualstudio.com → choisir macOS Apple Silicon.
Homebrew + Node.js GRATUIT
Homebrew est le gestionnaire de paquets macOS. Node.js v18+ est requis par Claude Code.
# Homebrew /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zshrc && source ~/.zshrc # Node.js LTS brew install node && node --version
Installer Ollama — version récente obligatoire GRATUIT
Une ancienne version ne reconnaît pas les modèles cloud V4. Mets toujours à jour.
brew install ollama ollama --version # doit être récent (2025+) ollama serve & # démarrer en arrière-plan
Installer Claude Code GRATUIT
curl -fsSL https://claude.ai/install.sh | bash claude --version
Extension Claude Code dans VS Code + config Ollama GRATUIT
code --install-extension anthropic.claude-code
Puis Cmd+, → chercher « Claude Code Environment » → Edit in settings.json :
{
"claude-code.env": {
"ANTHROPIC_AUTH_TOKEN": "ollama",
"ANTHROPIC_API_KEY": "",
"ANTHROPIC_BASE_URL": "http://localhost:11434"
}
}⚠️ Bug connu
Le sélecteur de modèles de l’extension n’affiche pas les modèles Ollama. Utilise /model nom-du-modele dans le terminal intégré — ça fonctionne parfaitement.
Déposer le KIT-STARTER dans ton projet GRATUIT
Copie le dossier à la racine. Claude Code lit CLAUDE.md automatiquement au démarrage.
cp -r KIT-STARTER/ ~/projets/mon-projet/ code ~/projets/mon-projet/
Lancer Claude Code avec Ollama Cloud GRATUIT
Dans le terminal intégré VS Code (Ctrl+`) :
ollama launch claude --model qwen3.5:cloud
ollama launch claude --model deepseek-v4-pro:cloud
Première fois dans le projet → lancer le bootstrap ICA :
/start
Routine quotidienne ICA CHAQUE JOUR
# Début ────────────────────────── ollama launch claude --model deepseek-v4-flash:cloud /recall # recharge le contexte # ... travail ... # Fin ──────────────────────────── /archive # sauvegarde avant fermeture
🎁 KIT-STARTER ICA — La mémoire persistante expliquée
mon-projet/
├── CLAUDE.md ← Lu automatiquement par Claude Code
├── .mcp.json ← Config outils MCP (VS Code, Cursor, Cline…)
├── .claude/commands/
│ ├── start.md ← /start : bootstrap guidé (1 seule fois)
│ ├── recall.md ← /recall : début de session
│ └── archive.md ← /archive : fin de session
├── instruction/
│ ├── I.md ← Règles de fonctionnement de l'agent
│ └── skills/ ← Procédures réutilisables
├── connaissance/
│ ├── C.md ← Contexte du projet (à remplir)
│ └── memoire/sessions/ ← Résumés archivés par session
└── action/
└── A.md ← Tâches et workflows⌨️ Les 3 commandes slash
Questionnaire interactif (nom, stack, tâches, problèmes récurrents). Crée tous les fichiers ICA après validation.
/start
Lit la dernière session archivée et reformule l’état du projet. À lancer en premier à chaque nouvelle session.
/recall
Résume la session et crée un fichier dans connaissance/memoire/sessions/. Sans ça, le contexte est perdu.
/archive
🔌 Activer un outil MCP (.mcp.json)
{
"mcpServers": {
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}
}
}Placement : Claude Code → .mcp.json racine · Cursor → .cursor/mcp.json · VS Code → .vscode/mcp.json
📊 Choisir son modèle Ollama
Plan gratuit
kimi-k2.5:cloudqwen3.5:cloudglm-5:cloudglm-4.7-flash(local)
ollama launch claude \ --model kimi-k2.5:cloud
Plan Pro
deepseek-v4-pro:cloud⭐deepseek-v4-flash:cloudminimax-m2.7:cloud- Accès prioritaire
ollama launch claude \ --model deepseek-v4-pro:cloud
📈 Performances pour le code
| Modèle | Plan | GPU requis | Données | Qualité |
|---|---|---|---|---|
deepseek-v4-pro:cloud | Pro | Aucun | US (Ollama) | ★★★★★ |
kimi-k2.5:cloud | Free | Aucun | Cloud | ★★★★★ |
qwen3.5:cloud | Free | Aucun | Cloud | ★★★★☆ |
glm-4.7-flash | Free local | 8 GB RAM | 100% local | ★★★☆☆ |
⚡ Référence rapide — toutes les commandes
# Lancer Claude Code avec Ollama ollama launch claude # sélecteur interactif ollama launch claude --model kimi-k2.5:cloud # Free — recommandé ollama launch claude --model deepseek-v4-pro:cloud # Pro # Commandes ICA dans Claude Code /start # initialiser le projet (1 seule fois) /recall # début de session — recharger le contexte /archive # fin de session — sauvegarder avant /clear /model deepseek-v4-pro:cloud # changer de modèle à la volée # Mode CI/CD (non-interactif) ollama launch claude --model kimi-k2.5:cloud --yes \ -- -p "Comment fonctionne ce repo ?" # Tâche planifiée automatique /loop 30m Vérifie les PRs ouvertes et résume leur statut
🔒 DeepSeek est chinois — faut-il s’inquiéter ?
La réponse courte
Via Ollama Cloud (USA), tes prompts ne touchent pas les serveurs DeepSeek en Chine. DeepSeek est 100% open-source et auditable. Pour le 100% souverain : modèle local sur le Mac Mini M4.
ollama pull glm-4.7-flash # 16 GB RAM ollama launch claude --model glm-4.7-flash
🚀 3 commandes pour démarrer maintenant
brew install ollama visual-studio-code → ollama launch claude → /start
Sources : docs.ollama.com · ollama.com/library/deepseek-v4-pro · Vidéo : Raph Fages, Avril 2026
