|

In 3 Schritten OpenCode an API-Relay anbinden und den freien Wechsel zwischen 400+ KI-Modellen freischalten

Möchten Sie OpenCode, diesen Open-Source-AI-Programmierassistenten, nutzen, haben aber Bedenken wegen der hohen offiziellen API-Preise oder instabiler Netzwerkverbindungen? Ein API-Relay ist die ideale Lösung für Sie. In diesem Artikel zeigen wir Ihnen Schritt für Schritt, wie Sie in nur 3 Schritten OpenCode mit Relay-Diensten wie APIYI, OpenRouter und anderen verbinden, damit Sie kostengünstig auf über 75 führende KI-Modelle wie Claude, GPT-4 und Gemini zugreifen können.

Kernvorteil: Nach der Lektüre dieses Artikels werden Sie wissen, wie Sie OpenCode mit jeder OpenAI-kompatiblen API konfigurieren, um einen flexiblen Modellwechsel und eine Kostenoptimierung zu erreichen.

opencode-api-proxy-configuration-guide-de 图示

Was ist OpenCode? Warum ein API-Relay nutzen?

OpenCode ist ein quelloffener KI-Programmierassistent für das Terminal, der oft als Open-Source-Alternative zu Claude Code bezeichnet wird. Es basiert auf der Sprache Go und bietet eine elegante TUI-Oberfläche, Multi-Session-Management, LSP-Integration und weitere professionelle Funktionen.

OpenCode Kernfunktionen im Überblick

Funktion Beschreibung Nutzen
75+ Modell-Support Unterstützt OpenAI, Claude, Gemini, Bedrock etc. Keine Bindung an einen Anbieter
Terminal-nativ Mit Bubble Tea erstellte, elegante TUI Entwicklerfreundliches Bedienkonzept
Open Source & Kostenlos Vollständig quelloffen, keine Abogebühren Kostenkontrolle durch Pay-per-Call
LSP-Integration Automatische Erkennung von Language Servern Intelligente Code-Vervollständigung & Diagnose
Multi-Session-Management Paralleles Ausführen mehrerer Agents Aufteilung komplexer Aufgaben
Vim-Modus Integrierter Editor im Vim-Stil Nahtloser Wechsel für Terminal-Nutzer

Warum ein API-Relay verwenden?

Die direkte Nutzung offizieller APIs kann folgende Hürden mit sich bringen:

Problem Lösung durch ein API-Relay
Hohe Preise Relays bieten oft günstigere Konditionen für Individualentwickler
Instabiles Netzwerk Optimierte Routen für besseren globalen Zugriff
Komplexe Abrechnung Einheitliche Schnittstelle, Multi-Modell-Verwaltung aus einer Hand
Kontingentbeschränkungen Relays bieten oft flexiblere Quoten
Registrierungshürden Keine ausländische Telefonnummer oder Kreditkarte erforderlich

🚀 Schnellstart: Wir empfehlen die Nutzung von APIYI (apiyi.com) als Relay. Es bietet sofort einsatzbereite OpenAI-kompatible Schnittstellen. Registrieren Sie sich und erhalten Sie ein kostenloses Testguthaben – die Konfiguration von OpenCode dauert nur 5 Minuten.

Kernelemente der OpenCode-Anbindung an API-Relaisstationen

Bevor du mit der Konfiguration beginnst, werfen wir einen Blick auf das API-Anbindungsprinzip von OpenCode:

opencode-api-proxy-configuration-guide-de 图示

Beschreibung der Konfigurationsarchitektur

OpenCode nutzt ein einheitliches Konfigurationsmanagement-System, das mehrschichtige Überschreibungen unterstützt:

Konfigurationsebene Dateipfad Priorität Anwendungsfall
Remote-Konfiguration .well-known/opencode Niedrigste Einheitliche Team-Konfiguration
Globale Konfiguration ~/.config/opencode/opencode.json Mittel Persönliche Standardeinstellungen
Umgebungsvariable Datei via OPENCODE_CONFIG Mittel-Hoch Temporäre Überschreibung
Projektkonfiguration Projektwurzel opencode.json Hoch Projektspezifische Einstellungen
Inline-Konfiguration OPENCODE_CONFIG_CONTENT Höchste CI/CD-Szenarien

API-Relais-Anbindungsprinzip

OpenCode unterstützt über den @ai-sdk/openai-compatible-Adapter jede OpenAI-kompatible API. Die wichtigsten Konfigurationspunkte sind:

  • baseURL: Die Schnittstellenadresse der API-Relaisstation.
  • apiKey: Der von der Relaisstation bereitgestellte API-Key.
  • models: Liste der verfügbaren Modelle.

Das bedeutet: Solange die Relaisstation die Standard-Schnittstelle /v1/chat/completions bereitstellt, kann sie direkt in OpenCode eingebunden werden.

OpenCode Schnellstart-Konfiguration

Schritt 1: OpenCode installieren

OpenCode bietet verschiedene Installationswege an, wähle den für dich passendsten:

Ein-Klick-Installationsskript (empfohlen):

curl -fsSL https://opencode.ai/install | bash

Homebrew Installation (macOS/Linux):

brew install opencode-ai/tap/opencode

npm Installation:

npm i -g opencode-ai@latest

Go Installation:

go install github.com/opencode-ai/opencode@latest

Installation überprüfen:

opencode --version

Schritt 2: API-Relais-Key konfigurieren

OpenCode unterstützt zwei Authentifizierungsmethoden:

Option 1: Über den /connect-Befehl (empfohlen)

Starte OpenCode und gib den Befehl /connect ein:

opencode
# Im TUI-Interface eingeben
/connect

Wähle Other, um einen benutzerdefinierten Provider hinzuzufügen, und gib deinen API-Key ein. Der Key wird sicher unter ~/.local/share/opencode/auth.json gespeichert.

Option 2: Konfiguration über Umgebungsvariablen

Füge in deiner ~/.zshrc oder ~/.bashrc hinzu:

# APIYI Relais-Konfiguration
export OPENAI_API_KEY="sk-your-apiyi-key"
export OPENAI_BASE_URL="https://api.apiyi.com/v1"

Konfiguration anwenden:

source ~/.zshrc

Schritt 3: opencode.json Konfigurationsdatei erstellen

Dies ist der wichtigste Schritt: Erstelle eine Konfigurationsdatei, um die API-Relaisstation festzulegen.

Globale Konfiguration (gilt für alle Projekte):

mkdir -p ~/.config/opencode
touch ~/.config/opencode/opencode.json

Projektkonfiguration (gilt nur für das aktuelle Projekt):

touch opencode.json  # Im Projekt-Stammverzeichnis

Minimalistisches Konfigurationsbeispiel

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "apiyi": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "APIYI",
      "options": {
        "baseURL": "https://api.apiyi.com/v1",
        "apiKey": "{env:OPENAI_API_KEY}"
      },
      "models": {
        "claude-sonnet-4-20250514": {
          "name": "Claude Sonnet 4"
        },
        "gpt-4o": {
          "name": "GPT-4o"
        }
      }
    }
  },
  "model": "apiyi/claude-sonnet-4-20250514"
}

Konfigurationshinweis: Die Syntax {env:OPENAI_API_KEY} liest automatisch die Umgebungsvariable aus, um das Hardcoding von Keys in der Datei zu vermeiden. API-Keys, die über APIYI (apiyi.com) bezogen werden, sind OpenAI-kompatibel und können direkt verwendet werden.

Vollständiges Konfigurationsbeispiel ansehen (inkl. mehrerer Provider)
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "apiyi": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "APIYI (empfohlen)",
      "options": {
        "baseURL": "https://api.apiyi.com/v1",
        "apiKey": "{env:APIYI_API_KEY}"
      },
      "models": {
        "claude-sonnet-4-20250514": {
          "name": "Claude Sonnet 4",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        },
        "claude-opus-4-20250514": {
          "name": "Claude Opus 4",
          "limit": {
            "context": 200000,
            "output": 32000
          }
        },
        "gpt-4o": {
          "name": "GPT-4o",
          "limit": {
            "context": 128000,
            "output": 16384
          }
        },
        "gpt-4o-mini": {
          "name": "GPT-4o Mini",
          "limit": {
            "context": 128000,
            "output": 16384
          }
        },
        "gemini-2.5-pro": {
          "name": "Gemini 2.5 Pro",
          "limit": {
            "context": 1000000,
            "output": 65536
          }
        },
        "deepseek-chat": {
          "name": "DeepSeek V3",
          "limit": {
            "context": 64000,
            "output": 8192
          }
        }
      }
    },
    "openrouter": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "OpenRouter",
      "options": {
        "baseURL": "https://openrouter.ai/api/v1",
        "apiKey": "{env:OPENROUTER_API_KEY}",
        "headers": {
          "HTTP-Referer": "https://your-site.com",
          "X-Title": "OpenCode Client"
        }
      },
      "models": {
        "anthropic/claude-sonnet-4": {
          "name": "Claude Sonnet 4 (OpenRouter)"
        },
        "openai/gpt-4o": {
          "name": "GPT-4o (OpenRouter)"
        }
      }
    }
  },
  "model": "apiyi/claude-sonnet-4-20250514",
  "small_model": "apiyi/gpt-4o-mini",
  "agent": {
    "coder": {
      "model": "apiyi/claude-sonnet-4-20250514",
      "maxTokens": 8000
    },
    "planner": {
      "model": "apiyi/gpt-4o",
      "maxTokens": 4000
    }
  },
  "tools": {
    "write": true,
    "bash": true,
    "glob": true,
    "grep": true
  }
}

Vergleich der von OpenCode unterstützten API-Proxys

opencode-api-proxy-configuration-guide-de 图示

Konfigurationsparameter gängiger API-Proxys

Proxy baseURL Besonderheiten Empfohlene Szenarien
APIYI https://api.apiyi.com/v1 Günstige Preise, schnelle Reaktionszeiten Erste Wahl für lokale Entwickler
OpenRouter https://openrouter.ai/api/v1 Umfassendste Auswahl, 400+ Modelle Wenn häufiger Modellwechsel nötig ist
Together AI https://api.together.xyz/v1 Große Auswahl an Open-Source-Modellen Llama- und Mistral-Nutzer
Groq https://api.groq.com/openai/v1 Extrem schnell, Gratis-Kontingent Latenzkritische Anwendungen

APIYI-Konfiguration im Detail

APIYI ist eine für Entwickler optimierte Plattform für AI-API-Proxys und bietet:

  • Eine einheitliche, OpenAI-kompatible Schnittstelle
  • Unterstützung für Claude, GPT, Gemini, DeepSeek und andere gängige Modelle
  • Pay-as-you-go Abrechnung ohne monatliche Grundgebühr
  • Gratis-Testguthaben für den Einstieg
  • Dedizierten Support
{
  "provider": {
    "apiyi": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "APIYI",
      "options": {
        "baseURL": "https://api.apiyi.com/v1"
      },
      "models": {
        "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4" },
        "claude-opus-4-20250514": { "name": "Claude Opus 4" },
        "gpt-4o": { "name": "GPT-4o" },
        "gpt-4o-mini": { "name": "GPT-4o Mini" },
        "gemini-2.5-pro": { "name": "Gemini 2.5 Pro" },
        "deepseek-chat": { "name": "DeepSeek V3" }
      }
    }
  }
}

OpenRouter-Konfiguration im Detail

OpenRouter aggregiert über 400 KI-Modelle und ist ideal, wenn du flexibel zwischen verschiedenen Modellen wechseln möchtest:

{
  "provider": {
    "openrouter": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "OpenRouter",
      "options": {
        "baseURL": "https://openrouter.ai/api/v1",
        "apiKey": "{env:OPENROUTER_API_KEY}",
        "headers": {
          "HTTP-Referer": "https://your-app.com",
          "X-Title": "My OpenCode App"
        }
      },
      "models": {
        "anthropic/claude-sonnet-4": {
          "name": "Claude Sonnet 4"
        },
        "google/gemini-2.5-pro": {
          "name": "Gemini 2.5 Pro"
        },
        "meta-llama/llama-3.1-405b": {
          "name": "Llama 3.1 405B"
        }
      }
    }
  }
}

💡 Empfehlung: Wenn du hauptsächlich Claude- und GPT-Modelle nutzt, ist APIYI (apiyi.com) aufgrund der attraktiven Preise und der hohen Geschwindigkeit zu empfehlen. Für spezielle Open-Source- oder Nischenmodelle bietet OpenRouter die beste Abdeckung.

OpenCode Fortgeschrittene Konfigurationstipps

Zuweisungsstrategie für Agent-Modelle

OpenCode verfügt über zwei integrierte Agents, den Coder und den Planner. Sie können diesen unterschiedliche Modelle zuweisen:

{
  "agent": {
    "coder": {
      "model": "apiyi/claude-sonnet-4-20250514",
      "maxTokens": 8000,
      "description": "Hauptkodierungsaufgaben, verwendet ein leistungsstarkes Modell"
    },
    "planner": {
      "model": "apiyi/gpt-4o-mini",
      "maxTokens": 4000,
      "description": "Planungsanalyse, verwendet ein leichtgewichtiges Modell zur Kostenersparnis"
    }
  }
}

Wechsel zwischen mehreren Providern

Sobald mehrere Provider konfiguriert sind, können Sie in OpenCode jederzeit mit dem Befehl /models zwischen ihnen wechseln:

# OpenCode starten
opencode

# In der TUI das Modell wechseln
/models
# Wählen Sie apiyi/claude-sonnet-4-20250514 oder ein anderes Modell aus

Best Practices für Umgebungsvariablen

Es wird empfohlen, API-Keys in einer .env-Datei zu verwalten:

# .env Datei
APIYI_API_KEY=sk-your-apiyi-key
OPENROUTER_API_KEY=sk-or-your-openrouter-key

Referenzieren Sie diese anschließend in der opencode.json:

{
  "provider": {
    "apiyi": {
      "options": {
        "apiKey": "{env:APIYI_API_KEY}"
      }
    }
  }
}

Konfiguration von Token-Limits

Legen Sie Kontext- und Ausgabebeschränkungen für Modelle fest, um Fehler durch Limitüberschreitungen zu vermeiden:

{
  "models": {
    "claude-sonnet-4-20250514": {
      "name": "Claude Sonnet 4",
      "limit": {
        "context": 200000,
        "output": 65536
      }
    }
  }
}

OpenCode Fehlerbehebung und häufig gestellte Fragen (FAQ)

Hier finden Sie Lösungen für Probleme, die bei der Konfiguration auftreten können:

F1: Fehlermeldung „Route /api/messages not found“ nach der Konfiguration?

Dies liegt in der Regel an einer fehlerhaften baseURL. Überprüfen Sie folgende Punkte:

  1. Stellen Sie sicher, dass die baseURL auf /v1 endet und nicht auf /v1/chat/completions.
  2. Vergewissern Sie sich, dass das API-Gateway das Standard-OpenAI-Schnittstellenformat unterstützt.
  3. Überprüfen Sie, ob der API-Key gültig ist.

Richtiges Format:

"baseURL": "https://api.apiyi.com/v1"

Falsches Format:

"baseURL": "https://api.apiyi.com/v1/chat/completions"

Die über APIYI (apiyi.com) bezogenen Schnittstellenadressen sind verifiziert und können direkt verwendet werden.

F2: Fehlermeldung „ProviderModelNotFoundError“ – Modell nicht gefunden?

Dies tritt auf, wenn die konfigurierte Modell-ID nicht mit der im Provider definierten ID übereinstimmt. Lösung:

  1. Prüfen Sie das Format des Feldes model: provider-id/model-id
  2. Stellen Sie sicher, dass das Modell im models-Objekt definiert ist.

Beispiel:

{
  "provider": {
    "apiyi": {
      "models": {
        "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4" }
      }
    }
  },
  "model": "apiyi/claude-sonnet-4-20250514"
}
F3: Wie überprüfe ich, ob die Konfiguration erfolgreich war?

Verwenden Sie die folgenden Befehle zur Überprüfung:

# Konfigurierte Authentifizierungsinformationen anzeigen
opencode auth list

# Verfügbare Modelle anzeigen
opencode
/models

# Einfachen Dialog testen
opencode -p "Hallo, bitte antworte auf Deutsch"

Wenn Sie eine normale Antwort erhalten, war die Konfiguration erfolgreich. Auf der Plattform APIYI (apiyi.com) können Sie im Dashboard die API-Aufrufprotokolle einsehen, was die Fehlersuche erleichtert.

F4: Wo sollte die Konfigurationsdatei am besten abgelegt werden?

Wählen Sie den Ort je nach Anwendungsszenario:

Szenario Empfohlener Pfad Beschreibung
Persönlicher globaler Standard ~/.config/opencode/opencode.json Wird von allen Projekten geteilt
Projektspezifische Konfiguration Projekt-Root opencode.json Kann in Git eingecheckt werden (ohne Keys)
CI/CD-Umgebung Umgebungsvariable OPENCODE_CONFIG_CONTENT Dynamische Injektion der Konfiguration
F5: Wie wechsle ich in OpenCode zwischen verschiedenen API-Gateways?

Wenn Sie mehrere Provider konfiguriert haben, nutzen Sie den Befehl /models zum Wechseln:

opencode
/models
# Wählen Sie einfach ein Modell unter einem anderen Provider aus

Sie können auch ein Standardmodell in der Konfiguration festlegen:

{
  "model": "apiyi/claude-sonnet-4-20250514"
}

OpenCode vs. Claude Code: Vergleich der API-Anbindungsmethoden

Vergleichsdimension OpenCode Claude Code
Modellunterstützung 75+ Modelle, frei konfigurierbar Nur Claude-Serie
API-Gateways Unterstützt jede OpenAI-kompatible Schnittstelle Keine Unterstützung für benutzerdefinierte Schnittstellen
Preis Kostenlose Software + API Pay-as-you-go $17-100/Monat Abo + API
Konfigurationsmethode JSON-Konfigurationsdatei + Umgebungsvariablen Integrierte Konfiguration, nicht änderbar
Open-Source-Status Vollständig Open Source Closed Source
Leistung Abhängig vom gewählten Modell Claude native Optimierung, SWE-bench 80.9%

🎯 Technischer Rat: Der größte Vorteil von OpenCode ist die Modellflexibilität. In Kombination mit dem APIYI (apiyi.com) Gateway können Sie mit derselben Konfiguration zwischen verschiedenen Modellen wie Claude, GPT-4 und Gemini wechseln, um die kosteneffizienteste Lösung zu finden.

Referenzmaterialien

Hier sind einige Referenzmaterialien, die Sie bei der Konfiguration von OpenCode benötigen könnten:

Material Link Beschreibung
Offizielle OpenCode-Dokumentation opencode.ai/docs Vollständige Konfigurationsreferenz
OpenCode GitHub-Repository github.com/opencode-ai/opencode Quellcode und Issues
OpenCode Provider-Konfiguration opencode.ai/docs/providers Detaillierte Beschreibung der Provider
OpenRouter-Dokumentation openrouter.ai/docs Leitfaden zur OpenRouter-Anbindung

Fazit

Mit der in diesem Artikel beschriebenen 3-Schritte-Konfiguration haben Sie Folgendes gelernt:

  1. Installation von OpenCode: Schnelle Installation über ein One-Click-Skript oder einen Paketmanager.
  2. Konfiguration des API-Schlüssels: Einrichtung der Authentifizierung über /connect oder Umgebungsvariablen.
  3. Erstellung der Konfigurationsdatei: Schreiben der opencode.json, um den API-Proxy und das Modell festzulegen.

Als Open-Source-KI-Programmierassistent für das Terminal bietet OpenCode in Kombination mit einem API-Proxy ein Erlebnis, das mit Claude Code vergleichbar ist – bei gleichzeitig kontrollierbaren Kosten und Modellflexibilität.

Wir empfehlen, Ihren API-Schlüssel schnell über APIYI apiyi.com zu beziehen und mit dem Testen zu beginnen. Die Plattform bietet ein kostenloses Kontingent, unterstützt gängige Modelle wie Claude, GPT und Gemini und macht die Konfiguration durch ein einheitliches Schnittstellenformat noch einfacher.


📝 Autor: APIYI-Technikteam | APIYI apiyi.com – Macht den Aufruf von KI-APIs einfacher.

Ähnliche Beiträge