Claude Code 100% Gratuit avec Ollama : Le Guide Complet
Astuce 2025

Claude Code 100% Gratuit avec Ollama

Découvrez comment utiliser Claude Code de manière illimitée grâce aux modèles open source d’Ollama, en local ou dans le cloud !

7 min de lecture
Niveau : Intermédiaire
Ollama 0.14.0+
🚀 La révolution est là ! Depuis la version 0.14.0 d’Ollama, il est désormais possible d’utiliser Claude Code avec des modèles open source. Que ce soit en local sur votre machine ou via le cloud d’Ollama, vous avez maintenant accès à un outil de développement assisté par IA totalement gratuit !

Pourquoi cette méthode est géniale ?

💰

100% Gratuit

Plus besoin d’abonnement ou de crédits API. Utilisez Claude Code sans limites de coût.

🔒

Vie privée garantie

En mode local, vos données ne quittent jamais votre machine. Parfait pour les projets sensibles.

🌐

Mode hors-ligne

Travaillez sans connexion internet avec les modèles téléchargés localement.

Modèles open source

Accédez aux meilleurs modèles de la communauté comme Qwen, Gemma et bien d’autres.

📋 Prérequis système

⚙️ Configuration recommandée

  • RAM : Entre 16 Go et 32 Go minimum selon le modèle choisi
  • Stockage : 5 à 10 Go d’espace libre pour les modèles
  • Processeur : CPU récent ou GPU dédié pour de meilleures performances
  • Système : macOS, Linux ou Windows avec terminal
⚠️

Important : L’exécution de modèles IA en local demande de la puissance. Pour une expérience fluide, privilégiez une machine performante avec une bonne carte graphique ou un MacBook récent (M1/M2/M3/M4).

📥 Étape 1 : Installer Ollama

1

Télécharger Ollama

Rendez-vous sur le site officiel ollama.com et cliquez sur « Download » pour télécharger l’installateur correspondant à votre système d’exploitation.

2

Alternative : Installation via Homebrew (Mac)

Si vous êtes sur Mac, vous pouvez utiliser Homebrew pour une installation rapide :

Terminal
brew install ollama
3

Démarrer le serveur Ollama

Une fois installé, lancez le serveur Ollama avec la commande suivante :

Terminal
ollama serve

Le serveur sera accessible sur le port 11434 par défaut.

🤖 Étape 2 : Choisir et télécharger un modèle

Ollama propose une large bibliothèque de modèles open source. Pour Claude Code, il est recommandé d’utiliser un modèle avec au moins 32 000 tokens de context length pour de meilleures performances.

Modèles recommandés selon votre configuration

Qwen 2.5 Coder 14B
14 milliards de paramètres ~9 Go 32K contexte

Version plus puissante pour les machines bien équipées (32 Go+ de RAM).

Google Gemma 2 9B
9 milliards de paramètres ~4.7 Go Contexte limité

Bon compromis pour les PC moins puissants. Développé par Google.

Télécharger le modèle

Utilisez la commande ollama pull suivie du nom du modèle :

Terminal
# Pour Qwen 2.5 Coder 7B (recommandé)
ollama pull qwen2.5-coder:7b

# Pour Gemma 2 9B
ollama pull gemma2:9b

# Vérifier les modèles installés
ollama list

🏠 Méthode 1 : Utilisation en local

Cette méthode vous permet d’utiliser Claude Code sans connexion internet, directement avec un modèle téléchargé sur votre machine.

1

Configurer les variables d’environnement

Dans votre terminal, exportez les variables nécessaires :

Terminal
# Définir le provider comme Ollama
export ANTHROPIC_HOST_TOKEN=ollama

# Définir l'URL du serveur local
export ANTHROPIC_BASE_URL=http://localhost:11434
2

Lancer Claude Code avec votre modèle

Utilisez l’option --model pour spécifier le modèle à utiliser :

Terminal
claude --model qwen2.5-coder:7b
3

Autoriser l’accès au dossier

Claude Code vous demandera l’autorisation d’accéder à votre dossier de travail. Acceptez pour commencer à coder !

💡

Astuce : Les temps de réponse seront plus longs qu’avec le modèle Opus 4.5 officiel, mais c’est totalement gratuit et fonctionne hors-ligne !

☁️ Méthode 2 : Utilisation via le cloud Ollama

Cette méthode vous permet d’utiliser des modèles plus puissants hébergés sur le cloud d’Ollama, sans surcharger votre machine.

1

Créer un compte et obtenir une clé API

Rendez-vous sur ollama.com, inscrivez-vous et générez une clé API dans la section « Keys » de votre compte.

2

Configurer les variables d’environnement

Terminal
# Définir l'URL du cloud Ollama
export ANTHROPIC_BASE_URL=https://ollama.com

# Définir votre clé API
export ANTHROPIC_API_KEY=votre_cle_api_ici
3

Lancer Claude Code avec un modèle cloud

Les modèles recommandés pour le cloud incluent GLM 4.7 Cloud, très performant pour le développement :

Terminal
claude --model glm-4.7-cloud

⚖️ Local vs Cloud : que choisir ?

🏠 Mode Local

  • Gratuit à 100%
  • Fonctionne hors-ligne
  • Données privées
  • Nécessite PC puissant
  • Temps de réponse variable
VS

☁️ Mode Cloud

  • Gratuit (avec limites)
  • Nécessite internet
  • Données sur serveurs
  • Fonctionne sur tout PC
  • Réponses plus rapides

🔧 Configuration avancée

Si vous rencontrez des problèmes d’authentification ou si la clé API n’est pas détectée automatiquement :

Dans Claude Code
# Accéder à la configuration
/config

# Puis sélectionner "Use custom API"
# Pour définir manuellement votre clé et endpoint

🎬 Tutoriel vidéo complet

Tutoriel Claude Code gratuit avec Ollama

🚀 Prêt à coder gratuitement ?

Téléchargez Ollama dès maintenant et profitez de Claude Code sans limites !

#ClaudeCode #Ollama #IA #OpenSource #Gratuit #Développement

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut