Claude Code 100% Gratuit avec Ollama
Découvrez comment utiliser Claude Code de manière illimitée grâce aux modèles open source d’Ollama, en local ou dans le cloud !
✨ Pourquoi cette méthode est géniale ?
100% Gratuit
Plus besoin d’abonnement ou de crédits API. Utilisez Claude Code sans limites de coût.
Vie privée garantie
En mode local, vos données ne quittent jamais votre machine. Parfait pour les projets sensibles.
Mode hors-ligne
Travaillez sans connexion internet avec les modèles téléchargés localement.
Modèles open source
Accédez aux meilleurs modèles de la communauté comme Qwen, Gemma et bien d’autres.
📋 Prérequis système
⚙️ Configuration recommandée
- RAM : Entre 16 Go et 32 Go minimum selon le modèle choisi
- Stockage : 5 à 10 Go d’espace libre pour les modèles
- Processeur : CPU récent ou GPU dédié pour de meilleures performances
- Système : macOS, Linux ou Windows avec terminal
Important : L’exécution de modèles IA en local demande de la puissance. Pour une expérience fluide, privilégiez une machine performante avec une bonne carte graphique ou un MacBook récent (M1/M2/M3/M4).
📥 Étape 1 : Installer Ollama
Télécharger Ollama
Rendez-vous sur le site officiel ollama.com et cliquez sur « Download » pour télécharger l’installateur correspondant à votre système d’exploitation.
Alternative : Installation via Homebrew (Mac)
Si vous êtes sur Mac, vous pouvez utiliser Homebrew pour une installation rapide :
brew install ollamaDémarrer le serveur Ollama
Une fois installé, lancez le serveur Ollama avec la commande suivante :
ollama serveLe serveur sera accessible sur le port 11434 par défaut.
🤖 Étape 2 : Choisir et télécharger un modèle
Ollama propose une large bibliothèque de modèles open source. Pour Claude Code, il est recommandé d’utiliser un modèle avec au moins 32 000 tokens de context length pour de meilleures performances.
Modèles recommandés selon votre configuration
Idéal pour les PC avec 16-32 Go de RAM. Excellent rapport performance/ressources.
Version plus puissante pour les machines bien équipées (32 Go+ de RAM).
Bon compromis pour les PC moins puissants. Développé par Google.
Télécharger le modèle
Utilisez la commande ollama pull suivie du nom du modèle :
# Pour Qwen 2.5 Coder 7B (recommandé)
ollama pull qwen2.5-coder:7b
# Pour Gemma 2 9B
ollama pull gemma2:9b
# Vérifier les modèles installés
ollama list🏠 Méthode 1 : Utilisation en local
Cette méthode vous permet d’utiliser Claude Code sans connexion internet, directement avec un modèle téléchargé sur votre machine.
Configurer les variables d’environnement
Dans votre terminal, exportez les variables nécessaires :
# Définir le provider comme Ollama
export ANTHROPIC_HOST_TOKEN=ollama
# Définir l'URL du serveur local
export ANTHROPIC_BASE_URL=http://localhost:11434Lancer Claude Code avec votre modèle
Utilisez l’option --model pour spécifier le modèle à utiliser :
claude --model qwen2.5-coder:7bAutoriser l’accès au dossier
Claude Code vous demandera l’autorisation d’accéder à votre dossier de travail. Acceptez pour commencer à coder !
Astuce : Les temps de réponse seront plus longs qu’avec le modèle Opus 4.5 officiel, mais c’est totalement gratuit et fonctionne hors-ligne !
☁️ Méthode 2 : Utilisation via le cloud Ollama
Cette méthode vous permet d’utiliser des modèles plus puissants hébergés sur le cloud d’Ollama, sans surcharger votre machine.
Créer un compte et obtenir une clé API
Rendez-vous sur ollama.com, inscrivez-vous et générez une clé API dans la section « Keys » de votre compte.
Configurer les variables d’environnement
# Définir l'URL du cloud Ollama
export ANTHROPIC_BASE_URL=https://ollama.com
# Définir votre clé API
export ANTHROPIC_API_KEY=votre_cle_api_iciLancer Claude Code avec un modèle cloud
Les modèles recommandés pour le cloud incluent GLM 4.7 Cloud, très performant pour le développement :
claude --model glm-4.7-cloud⚖️ Local vs Cloud : que choisir ?
🏠 Mode Local
- Gratuit à 100%
- Fonctionne hors-ligne
- Données privées
- Nécessite PC puissant
- Temps de réponse variable
☁️ Mode Cloud
- Gratuit (avec limites)
- Nécessite internet
- Données sur serveurs
- Fonctionne sur tout PC
- Réponses plus rapides
🔧 Configuration avancée
Si vous rencontrez des problèmes d’authentification ou si la clé API n’est pas détectée automatiquement :
# Accéder à la configuration
/config
# Puis sélectionner "Use custom API"
# Pour définir manuellement votre clé et endpoint🎬 Tutoriel vidéo complet

🚀 Prêt à coder gratuitement ?
Téléchargez Ollama dès maintenant et profitez de Claude Code sans limites !
