|

3 étapes pour configurer l’accès d’OpenCode à un relais API et basculer librement entre plus de 400 modèles d’IA

Vous voulez utiliser OpenCode, cet assistant de programmation IA open-source, mais vous trouvez les prix des API officielles trop élevés ou la connexion instable ? Un proxy API est votre meilleure solution. Cet article va vous guider pas à pas pour configurer OpenCode avec APIYI, OpenRouter ou d'autres services de proxy en seulement 3 étapes, vous permettant d'accéder à plus de 75 modèles majeurs comme Claude, GPT-4 ou Gemini à moindre coût.

Valeur ajoutée : À la fin de cette lecture, vous saurez configurer OpenCode pour utiliser n'importe quelle API compatible OpenAI, vous offrant ainsi une liberté totale de changement de modèle et une optimisation de vos coûts.

opencode-api-proxy-configuration-guide-fr 图示

OpenCode, c'est quoi ? Et pourquoi utiliser un proxy API ?

OpenCode est un assistant de programmation IA open-source pour terminal, souvent présenté comme l'alternative libre à Claude Code. Développé en Go, il propose une interface TUI élégante, une gestion multi-sessions et une intégration LSP professionnelle.

Aperçu des fonctionnalités clés d'OpenCode

Caractéristique Description Valeur
Support de +75 modèles Compatible OpenAI, Claude, Gemini, Bedrock, etc. Pas de verrouillage fournisseur
Natif au terminal Superbe TUI construite avec Bubble Tea Expérience fluide pour les développeurs
Open-source et gratuit Code totalement ouvert, sans abonnement Paiement à l'usage de l'API, coûts maîtrisés
Intégration LSP Détection automatique des serveurs de langage Autocomplétion et diagnostics intelligents
Multi-sessions Exécution de plusieurs agents en parallèle Décomposition de tâches complexes
Mode Vim Éditeur intégré de style Vim Transition naturelle pour les pros du terminal

Pourquoi utiliser un proxy API ?

L'utilisation directe des API officielles peut présenter certains obstacles :

Problème Solution apportée par le proxy API
Prix élevés Les proxys proposent des tarifs avantageux, idéaux pour les indépendants
Connexion instable Optimisation des lignes d'accès locales et internationales
Facturation complexe Interface de facturation unifiée, gestion centralisée multi-modèles
Limites de quotas Les proxys offrent souvent des quotas plus flexibles
Barrières à l'inscription Pas besoin de numéro de téléphone étranger ou de carte bancaire internationale

🚀 Démarrage rapide : Nous recommandons d'utiliser APIYI (apiyi.com) comme proxy. Il offre une interface compatible OpenAI prête à l'emploi. Inscrivez-vous pour recevoir un crédit de test gratuit et configurez OpenCode en moins de 5 minutes.

Points clés pour connecter OpenCode à un relais API

Avant de commencer la configuration, jetons un coup d'œil au fonctionnement de la connexion API d'OpenCode :

opencode-api-proxy-configuration-guide-fr 图示

Description de l'architecture de configuration

OpenCode utilise un système de gestion de configuration unifié, supportant plusieurs niveaux de priorité pour les paramètres :

Niveau de config Emplacement du fichier Priorité Usage
Config distante .well-known/opencode Minimum Configuration d'équipe unifiée
Config globale ~/.config/opencode/opencode.json Moyenne Paramètres par défaut perso
Variables d'env Fichier pointé par OPENCODE_CONFIG Moyenne-haute Surcharge temporaire
Config projet opencode.json à la racine du projet Haute Paramètres spécifiques au projet
Config inline OPENCODE_CONFIG_CONTENT Maximum Scénarios CI/CD

Principe de connexion au relais API

OpenCode supporte n'importe quelle API compatible OpenAI via l'adaptateur @ai-sdk/openai-compatible. Voici les paramètres clés :

  • baseURL : L'adresse d'interface du relais API.
  • apiKey : La clé API fournie par le relais.
  • models : La liste des modèles disponibles.

Cela signifie que tant que le relais fournit une interface /v1/chat/completions standard, il peut être directement connecté à OpenCode.

Configuration rapide d'OpenCode

Étape 1 : Installer OpenCode

OpenCode propose plusieurs méthodes d'installation, choisissez celle qui vous convient le mieux :

Script d'installation en une ligne (recommandé) :

curl -fsSL https://opencode.ai/install | bash

Installation via Homebrew (macOS/Linux) :

brew install opencode-ai/tap/opencode

Installation via npm :

npm i -g opencode-ai@latest

Installation via Go :

go install github.com/opencode-ai/opencode@latest

Vérifiez que l'installation a réussi :

opencode --version

Étape 2 : Configurer la clé du relais API

OpenCode supporte deux modes d'authentification :

Méthode 1 : Utiliser la commande /connect (recommandé)

Une fois OpenCode lancé, tapez la commande /connect :

opencode
# Dans l'interface TUI, saisissez :
/connect

Choisissez Other pour ajouter un fournisseur (Provider) personnalisé, puis saisissez votre clé API. La clé sera stockée en toute sécurité dans ~/.local/share/opencode/auth.json.

Méthode 2 : Configuration via variables d'environnement

Ajoutez ceci à votre fichier ~/.zshrc ou ~/.bashrc :

# Configuration du relais APIYI
export OPENAI_API_KEY="sk-votre-cle-apiyi"
export OPENAI_BASE_URL="https://api.apiyi.com/v1"

Appliquez les changements :

source ~/.zshrc

Étape 3 : Créer le fichier de configuration opencode.json

C'est l'étape cruciale : créer le fichier de configuration pour désigner le relais API.

Configuration globale (s'applique à tous les projets) :

mkdir -p ~/.config/opencode
touch ~/.config/opencode/opencode.json

Configuration par projet (s'applique uniquement au projet actuel) :

touch opencode.json  # À la racine de votre projet

Exemple de configuration minimaliste

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "apiyi": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "APIYI",
      "options": {
        "baseURL": "https://api.apiyi.com/v1",
        "apiKey": "{env:OPENAI_API_KEY}"
      },
      "models": {
        "claude-sonnet-4-20250514": {
          "name": "Claude Sonnet 4"
        },
        "gpt-4o": {
          "name": "GPT-4o"
        }
      }
    }
  },
  "model": "apiyi/claude-sonnet-4-20250514"
}

Note de configuration : La syntaxe {env:OPENAI_API_KEY} lit automatiquement la variable d'environnement, ce qui évite d'écrire la clé en dur dans le fichier. Les clés API obtenues via APIYI (apiyi.com) sont compatibles avec le format OpenAI et prêtes à l'emploi.

Voir l’exemple complet (multi-fournisseurs)
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "apiyi": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "APIYI (recommandé)",
      "options": {
        "baseURL": "https://api.apiyi.com/v1",
        "apiKey": "{env:APIYI_API_KEY}"
      },
      "models": {
        "claude-sonnet-4-20250514": {
          "name": "Claude Sonnet 4",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        },
        "claude-opus-4-20250514": {
          "name": "Claude Opus 4",
          "limit": {
            "context": 200000,
            "output": 32000
          }
        },
        "gpt-4o": {
          "name": "GPT-4o",
          "limit": {
            "context": 128000,
            "output": 16384
          }
        },
        "gpt-4o-mini": {
          "name": "GPT-4o Mini",
          "limit": {
            "context": 128000,
            "output": 16384
          }
        },
        "gemini-2.5-pro": {
          "name": "Gemini 2.5 Pro",
          "limit": {
            "context": 1000000,
            "output": 65536
          }
        },
        "deepseek-chat": {
          "name": "DeepSeek V3",
          "limit": {
            "context": 64000,
            "output": 8192
          }
        }
      }
    },
    "openrouter": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "OpenRouter",
      "options": {
        "baseURL": "https://openrouter.ai/api/v1",
        "apiKey": "{env:OPENROUTER_API_KEY}",
        "headers": {
          "HTTP-Referer": "https://votre-site.com",
          "X-Title": "OpenCode Client"
        }
      },
      "models": {
        "anthropic/claude-sonnet-4": {
          "name": "Claude Sonnet 4 (OpenRouter)"
        },
        "openai/gpt-4o": {
          "name": "GPT-4o (OpenRouter)"
        }
      }
    }
  },
  "model": "apiyi/claude-sonnet-4-20250514",
  "small_model": "apiyi/gpt-4o-mini",
  "agent": {
    "coder": {
      "model": "apiyi/claude-sonnet-4-20250514",
      "maxTokens": 8000
    },
    "planner": {
      "model": "apiyi/gpt-4o",
      "maxTokens": 4000
    }
  },
  "tools": {
    "write": true,
    "bash": true,
    "glob": true,
    "grep": true
  }
}

Comparaison des relais API compatibles avec OpenCode

opencode-api-proxy-configuration-guide-fr 图示

Paramètres de configuration des principaux relais API

Relais baseURL Caractéristiques Scénarios recommandés
APIYI https://api.apiyi.com/v1 Excellent support, prix attractifs, réponse rapide Premier choix pour les développeurs locaux
OpenRouter https://openrouter.ai/api/v1 Choix le plus complet, 400+ modèles Besoin de basculer entre de nombreux modèles
Together AI https://api.together.xyz/v1 Large choix de modèles open-source Utilisateurs de Llama, Mistral
Groq https://api.groq.com/openai/v1 Vitesse extrême, quota gratuit Scénarios sensibles à la latence

Détails de configuration pour APIYI

APIYI est une plateforme de relais API IA optimisée pour les développeurs, offrant :

  • Une interface unifiée compatible OpenAI
  • Le support des modèles phares comme Claude, GPT, Gemini, DeepSeek, etc.
  • Une tarification à l'usage, sans abonnement mensuel
  • Un crédit de test gratuit à l'inscription
  • Un support client en chinois
{
  "provider": {
    "apiyi": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "APIYI",
      "options": {
        "baseURL": "https://api.apiyi.com/v1"
      },
      "models": {
        "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4" },
        "claude-opus-4-20250514": { "name": "Claude Opus 4" },
        "gpt-4o": { "name": "GPT-4o" },
        "gpt-4o-mini": { "name": "GPT-4o Mini" },
        "gemini-2.5-pro": { "name": "Gemini 2.5 Pro" },
        "deepseek-chat": { "name": "DeepSeek V3" }
      }
    }
  }
}

Détails de configuration pour OpenRouter

OpenRouter agrège plus de 400 modèles d'IA, idéal pour les scénarios nécessitant de basculer fréquemment entre différents modèles :

{
  "provider": {
    "openrouter": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "OpenRouter",
      "options": {
        "baseURL": "https://openrouter.ai/api/v1",
        "apiKey": "{env:OPENROUTER_API_KEY}",
        "headers": {
          "HTTP-Referer": "https://your-app.com",
          "X-Title": "My OpenCode App"
        }
      },
      "models": {
        "anthropic/claude-sonnet-4": {
          "name": "Claude Sonnet 4"
        },
        "google/gemini-2.5-pro": {
          "name": "Gemini 2.5 Pro"
        },
        "meta-llama/llama-3.1-405b": {
          "name": "Llama 3.1 405B"
        }
      }
    }
  }
}

💡 Conseil de choix : Si vous utilisez principalement les séries Claude et GPT, nous recommandons APIYI (apiyi.com) pour ses tarifs plus avantageux et sa rapidité de réponse. Si vous avez besoin de modèles open-source ou de niche, OpenRouter offre une couverture plus complète.

Configuration avancée d'OpenCode

Stratégie d'allocation des modèles pour les agents

OpenCode intègre deux agents, Coder et Planner, et vous pouvez leur attribuer des modèles différents :

{
  "agent": {
    "coder": {
      "model": "apiyi/claude-sonnet-4-20250514",
      "maxTokens": 8000,
      "description": "Tâches de codage principales, utilise un modèle performant"
    },
    "planner": {
      "model": "apiyi/gpt-4o-mini",
      "maxTokens": 4000,
      "description": "Planification et analyse, utilise un modèle léger pour réduire les coûts"
    }
  }
}

Basculer entre plusieurs fournisseurs (Providers)

Une fois que vous avez configuré plusieurs fournisseurs, vous pouvez basculer de l'un à l'autre à tout moment dans OpenCode via la commande /models :

# Lancer OpenCode
opencode

# Changer de modèle dans l'interface TUI
/models
# Choisir apiyi/claude-sonnet-4-20250514 ou un autre modèle

Bonnes pratiques pour les variables d'environnement

Il est recommandé de gérer vos clés API dans un fichier .env :

# Fichier .env
APIYI_API_KEY=sk-your-apiyi-key
OPENROUTER_API_KEY=sk-or-your-openrouter-key

Ensuite, référencez-les dans votre fichier opencode.json :

{
  "provider": {
    "apiyi": {
      "options": {
        "apiKey": "{env:APIYI_API_KEY}"
      }
    }
  }
}

Configuration des limites de tokens

Spécifiez les limites de contexte et de sortie pour chaque modèle afin d'éviter les erreurs de dépassement de capacité :

{
  "models": {
    "claude-sonnet-4-20250514": {
      "name": "Claude Sonnet 4",
      "limit": {
        "context": 200000,
        "output": 65536
      }
    }
  }
}

Dépannage des problèmes courants d'OpenCode

Voici les problèmes que vous pourriez rencontrer lors de la configuration et leurs solutions :

Q1 : Pourquoi l’erreur « Route /api/messages not found » s’affiche-t-elle après la configuration ?

Cela est généralement dû à une configuration incorrecte de la baseURL. Vérifiez les points suivants :

  1. Assurez-vous que la baseURL se termine par /v1, et non par /v1/chat/completions.
  2. Confirmez que le relais (proxy) prend en charge le format standard de l'interface OpenAI.
  3. Vérifiez que votre clé API est valide.

Format correct :

"baseURL": "https://api.apiyi.com/v1"

Format incorrect :

"baseURL": "https://api.apiyi.com/v1/chat/completions"

Les adresses d'interface obtenues via la plateforme APIYI (apiyi.com) ont été vérifiées et peuvent être utilisées directement.

Q2 : L’erreur « ProviderModelNotFoundError » indique que le modèle est introuvable ?

Cela arrive quand l'ID du modèle configuré ne correspond pas à celui défini dans le Provider. Pour résoudre cela :

  1. Vérifiez le format du champ model : id-du-fournisseur/id-du-modèle.
  2. Assurez-vous que le modèle est bien défini dans l'objet models.

Exemple :

{
  "provider": {
    "apiyi": {
      "models": {
        "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4" }
      }
    }
  },
  "model": "apiyi/claude-sonnet-4-20250514"
}
Q3 : Comment vérifier si la configuration a réussi ?

Utilisez les commandes suivantes pour vérifier votre installation :

# Voir les informations d'authentification configurées
opencode auth list

# Voir les modèles disponibles
opencode
/models

# Tester une conversation simple
opencode -p "Bonjour, réponds-moi en français s'il te plaît"

Si vous recevez une réponse normale, la configuration est réussie. Sur la plateforme APIYI (apiyi.com), vous pouvez consulter l'historique des appels API dans la console pour faciliter le dépannage.

Q4 : Quel est le meilleur endroit pour placer le fichier de configuration ?

Choisissez selon votre cas d'utilisation :

Scénario Emplacement recommandé Description
Par défaut (global personnel) ~/.config/opencode/opencode.json Partagé par tous les projets
Configuration spécifique au projet Racine du projet opencode.json Peut être commité sur Git (sans les clés)
Environnement CI/CD Variable d'environnement OPENCODE_CONFIG_CONTENT Injection dynamique de la configuration
Q5 : Comment basculer entre différents relais (proxies) API dans OpenCode ?

Après avoir configuré plusieurs Providers, utilisez la commande /models pour basculer :

opencode
/models
# Il suffit de sélectionner un modèle sous un autre Provider pour changer

Vous pouvez également définir un modèle par défaut dans la configuration :

{
  "model": "apiyi/claude-sonnet-4-20250514"
}

OpenCode vs Claude Code : Comparaison des modes d'accès API

Dimension de comparaison OpenCode Claude Code
Support des modèles Plus de 75 modèles, configuration libre Uniquement la gamme Claude
Passerelles API Supporte n'importe quelle interface compatible OpenAI Pas de support pour les interfaces personnalisées
Prix Logiciel gratuit + paiement à l'usage de l'API Abonnement de 17 à 100 $/mois + API
Mode de configuration Fichier de configuration JSON + variables d'environnement Configuration intégrée, non modifiable
Degré d'open source Entièrement open source Propriétaire (source fermée)
Performance Dépend du modèle choisi Optimisation native Claude, SWE-bench 80,9 %

🎯 Conseil technique : Le plus grand avantage d'OpenCode est la flexibilité des modèles. En utilisant la passerelle APIYI (apiyi.com), vous pouvez basculer entre Claude, GPT-4, Gemini et bien d'autres modèles avec la même configuration, afin de trouver la solution au meilleur rapport qualité-prix.

Ressources

Voici quelques ressources utiles pour configurer OpenCode :

Ressource Lien Description
Documentation officielle d'OpenCode opencode.ai/docs Référence complète de configuration
Dépôt GitHub d'OpenCode github.com/opencode-ai/opencode Code source et tickets (Issues)
Configuration des fournisseurs OpenCode opencode.ai/docs/providers Description détaillée des fournisseurs (Providers)
Documentation OpenRouter openrouter.ai/docs Guide d'intégration OpenRouter

Conclusion

Grâce à cette méthode de configuration en 3 étapes, vous maîtrisez désormais :

  1. L'installation d'OpenCode : Utiliser un script en une ligne ou un gestionnaire de paquets pour une installation rapide.
  2. La configuration de la clé API : Paramétrer l'authentification via /connect ou les variables d'environnement.
  3. La création du fichier de configuration : Rédiger le fichier opencode.json pour spécifier le relais API et le modèle.

En tant qu'assistant de programmation IA open source en terminal, OpenCode, utilisé avec un relais API, permet d'obtenir une expérience comparable à Claude Code tout en gardant des coûts maîtrisés et une grande flexibilité de modèles.

Nous vous recommandons d'utiliser APIYI (apiyi.com) pour obtenir rapidement votre clé API et commencer vos tests. La plateforme propose des crédits gratuits et prend en charge les modèles majeurs comme Claude, GPT et Gemini. Son format d'interface unifié simplifie grandement la configuration.


📝 Auteur : L'équipe technique d'APIYI | APIYI apiyi.com – Simplifier vos appels API d'IA

Publications similaires