VS Code + Claude Code + Ollama — Guide Mac Mini M4
🍎 Mac Mini M4 🖥️ VS Code 🦙 Ollama Cloud 💻 Claude Code 🎁 KIT-STARTER ICA 📅 Avril 2026

VS Code + Claude Code + Ollama
Guide complet Mac Mini M4

Installe VS Code, branche Claude Code sur Ollama Cloud et élimine les limites de session de 5h — avec le KIT-STARTER ICA pour ne plus jamais perdre le contexte de ton projet.
Ollama + Claude Code + DeepSeek V4
▶ Voir sur YouTube

💡 Pourquoi cette stack ?

Claude Code coupe ta session toutes les 5h et les gros projets font exploser les tokens. En branchant Ollama comme proxy Anthropic-compatible, on contourne les deux limites sans rien changer au workflow. Le KIT-STARTER ICA ajoute la mémoire persistante entre sessions.

🚫

Le problème

Session 5h, tokens limités, coût Opus élevé, contexte perdu à chaque /clear.

🦙

Ollama Cloud

Proxy Anthropic-compatible. Claude Code croit parler à Anthropic, mais route vers DeepSeek / Qwen / Kimi — hébergé aux USA.

🧠

KIT-STARTER ICA

Framework de mémoire. /recall au démarrage, /archive à la fermeture — le contexte survit entre sessions.

🗺️ Installation complète — 8 étapes (~15 min)

Installer Visual Studio Code PRIORITÉ

Télécharge la version Apple Silicon (ARM64) pour des performances natives sur Mac Mini M4.

Via Homebrew
brew install --cask visual-studio-code
code --version

Ou : code.visualstudio.com → choisir macOS Apple Silicon.

Homebrew + Node.js GRATUIT

Homebrew est le gestionnaire de paquets macOS. Node.js v18+ est requis par Claude Code.

# Homebrew
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zshrc && source ~/.zshrc

# Node.js LTS
brew install node && node --version

Installer Ollama — version récente obligatoire GRATUIT

Une ancienne version ne reconnaît pas les modèles cloud V4. Mets toujours à jour.

brew install ollama
ollama --version   # doit être récent (2025+)
ollama serve &     # démarrer en arrière-plan

Installer Claude Code GRATUIT

curl -fsSL https://claude.ai/install.sh | bash
claude --version

Extension Claude Code dans VS Code + config Ollama GRATUIT

Installer l’extension
code --install-extension anthropic.claude-code

Puis Cmd+, → chercher « Claude Code Environment »Edit in settings.json :

settings.json — Brancher Ollama
{
  "claude-code.env": {
    "ANTHROPIC_AUTH_TOKEN": "ollama",
    "ANTHROPIC_API_KEY": "",
    "ANTHROPIC_BASE_URL": "http://localhost:11434"
  }
}

⚠️ Bug connu

Le sélecteur de modèles de l’extension n’affiche pas les modèles Ollama. Utilise /model nom-du-modele dans le terminal intégré — ça fonctionne parfaitement.

Déposer le KIT-STARTER dans ton projet GRATUIT

Copie le dossier à la racine. Claude Code lit CLAUDE.md automatiquement au démarrage.

cp -r KIT-STARTER/ ~/projets/mon-projet/
code ~/projets/mon-projet/

Lancer Claude Code avec Ollama Cloud GRATUIT

Dans le terminal intégré VS Code (Ctrl+`) :

Plan Free
ollama launch claude --model qwen3.5:cloud
Plan Pro — DeepSeek V4 Pro
ollama launch claude --model deepseek-v4-pro:cloud

Première fois dans le projet → lancer le bootstrap ICA :

/start

Routine quotidienne ICA CHAQUE JOUR

Cycle de session
# Début ──────────────────────────
ollama launch claude --model deepseek-v4-flash:cloud
/recall          # recharge le contexte

# ... travail ...

# Fin ────────────────────────────
/archive         # sauvegarde avant fermeture

🎁 KIT-STARTER ICA — La mémoire persistante expliquée

Structure du KIT-STARTER
mon-projet/
├── CLAUDE.md                     ← Lu automatiquement par Claude Code
├── .mcp.json                     ← Config outils MCP (VS Code, Cursor, Cline…)
├── .claude/commands/
│   ├── start.md                  ← /start   : bootstrap guidé (1 seule fois)
│   ├── recall.md                 ← /recall  : début de session
│   └── archive.md                ← /archive : fin de session
├── instruction/
│   ├── I.md                      ← Règles de fonctionnement de l'agent
│   └── skills/                   ← Procédures réutilisables
├── connaissance/
│   ├── C.md                      ← Contexte du projet (à remplir)
│   └── memoire/sessions/         ← Résumés archivés par session
└── action/
    └── A.md                      ← Tâches et workflows

⌨️ Les 3 commandes slash

/startBootstrap — une seule fois par projet

Questionnaire interactif (nom, stack, tâches, problèmes récurrents). Crée tous les fichiers ICA après validation.

/start
/recallDébut de session — recharge le contexte

Lit la dernière session archivée et reformule l’état du projet. À lancer en premier à chaque nouvelle session.

/recall
/archiveFin de session — toujours avant /clear

Résume la session et crée un fichier dans connaissance/memoire/sessions/. Sans ça, le contexte est perdu.

/archive

🔌 Activer un outil MCP (.mcp.json)

.mcp.json — Déplacer un exemple vers mcpServers pour activer
{
  "mcpServers": {
    "context7": {
      "command": "npx",
      "args": ["-y", "@upstash/context7-mcp@latest"]
    }
  }
}

Placement : Claude Code → .mcp.json racine · Cursor → .cursor/mcp.json · VS Code → .vscode/mcp.json

📊 Choisir son modèle Ollama

FREE

Plan gratuit

  • kimi-k2.5:cloud
  • qwen3.5:cloud
  • glm-5:cloud
  • glm-4.7-flash (local)
ollama launch claude \
  --model kimi-k2.5:cloud
VS
PRO

Plan Pro

  • deepseek-v4-pro:cloud
  • deepseek-v4-flash:cloud
  • minimax-m2.7:cloud
  • Accès prioritaire
ollama launch claude \
  --model deepseek-v4-pro:cloud

📈 Performances pour le code

DeepSeek V4 Pro96/100
Kimi K2.592/100
GLM-5 Cloud88/100
Qwen 3.5 (Free)82/100
ModèlePlanGPU requisDonnéesQualité
deepseek-v4-pro:cloudProAucunUS (Ollama)★★★★★
kimi-k2.5:cloudFreeAucunCloud★★★★★
qwen3.5:cloudFreeAucunCloud★★★★☆
glm-4.7-flashFree local8 GB RAM100% local★★★☆☆

⚡ Référence rapide — toutes les commandes

Copier-coller pour démarrer
# Lancer Claude Code avec Ollama
ollama launch claude                               # sélecteur interactif
ollama launch claude --model kimi-k2.5:cloud       # Free — recommandé
ollama launch claude --model deepseek-v4-pro:cloud # Pro

# Commandes ICA dans Claude Code
/start     # initialiser le projet (1 seule fois)
/recall    # début de session — recharger le contexte
/archive   # fin de session — sauvegarder avant /clear
/model deepseek-v4-pro:cloud  # changer de modèle à la volée

# Mode CI/CD (non-interactif)
ollama launch claude --model kimi-k2.5:cloud --yes \
  -- -p "Comment fonctionne ce repo ?"

# Tâche planifiée automatique
/loop 30m Vérifie les PRs ouvertes et résume leur statut

🔒 DeepSeek est chinois — faut-il s’inquiéter ?

La réponse courte

Via Ollama Cloud (USA), tes prompts ne touchent pas les serveurs DeepSeek en Chine. DeepSeek est 100% open-source et auditable. Pour le 100% souverain : modèle local sur le Mac Mini M4.

Option 100% locale — aucun envoi réseau
ollama pull glm-4.7-flash              # 16 GB RAM
ollama launch claude --model glm-4.7-flash

🚀 3 commandes pour démarrer maintenant

brew install ollama visual-studio-code  →  ollama launch claude  →  /start

Sources : docs.ollama.com · ollama.com/library/deepseek-v4-pro · Vidéo : Raph Fages, Avril 2026

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut