|

Optimale Lösung für die Integration von gpt-image-2 in OpenClaw: Mit Skills in 5 Minuten einsatzbereit, ohne eine Zeile HTTP-Code zu schreiben

Wenn Sie möchten, dass OpenClaw direkt das leistungsstarke Bildmodell gpt-image-2 von OpenAI aufruft, was wäre Ihr erster Gedanke? Die meisten würden sofort den Editor öffnen, ein Python-Skript mit requests.post(...) schreiben und dieses als Werkzeugfunktion für den Agenten verpacken.

Dieser Weg ist zwar möglich, führt aber sofort zu vier Problemen:

  1. Sie müssen das multipart/form-data-Hochladen von Referenzbildern manuell verarbeiten.
  2. Sie müssen Logik für Wiederholungsversuche, Timeouts und 429-Ratenbegrenzungen implementieren.
  3. Sie müssen für jedes Szenario (Text-zu-Bild, Bild-zu-Bild, Masken, Batch-Verarbeitung) eine eigene Kapselung schreiben.
  4. Bei jedem Wechsel des OpenClaw-Clients (oder bei Claude Code, Cursor) müssen Sie die Integration erneut durchführen.

Die Antwort für 2026 lautet: Schreiben Sie keinen Code, installieren Sie einfach einen Skill.

OpenClaw unterstützt ein vollständiges Skill-Ökosystem – das ClawHub-Register umfasst derzeit über 5700 von der Community bereitgestellte Skills. In diesem Artikel stellen wir die zwei offiziellen gpt-image-2-Skills vor, die das APIYI-Team für das Repository expert-skills-hub bereitgestellt hat:

  • apiyi-gpt-image-2-gen (Direktaufruf / präzise Steuerung, empfohlen)
  • apiyi-gpt-image-2-all-gen (Indirekter Aufruf / Wirtschaftsmodus)

Die Installation eines Skills erfordert nur einen Befehl, die Konfiguration des Schlüssels nur ein export. Danach können Sie in OpenClaw einfach sagen: "Erstelle mir ein 4K-Produktbild einer Keramiktasse", und der Agent wählt automatisch den Skill aus, füllt die Parameter aus und speichert die Datei.

Nach diesem Tutorial zur OpenClaw-Integration von gpt-image-2 erhalten Sie:

  • Einen klaren Vergleich zwischen "Code schreiben" und "Skill installieren", damit Sie wissen, warum Letzteres überlegen ist.
  • Zwei sofort einsatzbereite offizielle Skills, die sowohl hochwertige Ausgaben als auch wirtschaftliche Batch-Szenarien abdecken.
  • Ein in 5 Schritten ausführbares Minimalbeispiel (jeweils für Node.js und Python).
  • Drei Praxisbefehle (4K-Poster / Synthese mit mehreren Referenzbildern / Batch-Skizzen).
  • Methoden zur Wiederverwendung derselben Skills in Claude Code und Cursor.

1. Warum Skills die optimale Lösung für die OpenClaw-Integration von gpt-image-2 sind

1.1 Das Skill-System von OpenClaw: Der Standardweg, um Agenten zu erweitern

OpenClaw ist ein plattformübergreifender Open-Source-KI-Assistent (GitHub-Repository github.com/openclaw/openclaw). Sein Ziel ist nicht "nur ein weiterer Chat-Bot", sondern "ein kombinierbares Werkzeugset für Agenten". Die Grundeinheit dieses Werkzeugsets wird Skill genannt.

Ein Skill besteht im Wesentlichen aus:

skill-package/
├── SKILL.md                # Sagt dem Agenten, was dieser Skill tut
├── scripts/
│   ├── generate_image.js   # Node.js-Laufzeitumgebung
│   └── generate_image.py   # Python-Laufzeitumgebung
└── requirements.txt / package.json

Wenn Sie sagen: "Hilf mir, eine Kaffeetasse zu zeichnen", macht OpenClaw Folgendes:

  1. Es scannt die SKILL.md-Zusammenfassungen aller installierten Skills.
  2. Es erkennt, dass "Bilderzeugung" am besten zu apiyi-gpt-image-2-gen passt.
  3. Es extrahiert Parameter aus Ihrer natürlichen Sprache (Größe, Qualität, Ausgabeformat).
  4. Es ruft das entsprechende generate_image.js/py auf.
  5. Es gibt Ihnen den Pfad zum generierten Bild zurück.

Sie schreiben keinen Code, konfigurieren keine Routen und rufen kein SDK auf. Dies ist der entscheidende Vorteil des OpenClaw-Ökosystems gegenüber dem traditionellen "Plugin-Schreiben".

1.2 Code schreiben vs. Skill installieren: Ein Vergleich

Vergleichsdimension HTTP-Code selbst schreiben Offiziellen Skill installieren
Startaufwand Ab 30 Minuten 1 Befehl, 30 Sekunden
HTTP-Details Manuelle Verarbeitung von Multipart, Retries, Timeouts Im Skill bereits gekapselt
Hochladen von Referenzbildern Manuelle Base64-Kodierung Direkte Übergabe des Dateipfads
Mehrere Laufzeiten Entweder Node oder Python Node.js + Python vorhanden
Agenten-Wahrnehmung Werkzeugbeschreibung selbst schreiben SKILL.md inklusive
Client-übergreifend Bei Umgebungswechsel neu integrieren Funktioniert in Claude Code / Cursor / OpenClaw
Upgrade-Pfad OpenAI API-Updates selbst verfolgen npx skills update per Klick
Leitungswechsel Code ändern Umgebungsvariable ändern

Mit anderen Worten: Code schreiben macht Sie zu einem "Glue-Arbeiter", der ständig Wartungsarbeiten durchführt, während Skill installieren die Wartung an den jeweiligen Skill-Autor delegiert.

1.3 Die Arbeitsteilung der beiden Skills: Erst das Werkzeug wählen, dann das Bild erzeugen

Das APIYI-Team hat zwei Skills für gpt-image-2 im expert-skills-hub-Repository bereitgestellt, die für völlig unterschiedliche Szenarien gedacht sind:

Skill-Name Modell-Alias Positionierung Preismodell Bestes Szenario
apiyi-gpt-image-2-gen gpt-image-2 Direkt / Präzise Steuerung Abrechnung pro Token Poster, kommerzielle Fotos, Cover, 4K-Ausgabe
apiyi-gpt-image-2-all-gen gpt-image-2-all Indirekt / Wirtschaftsmodus Festpreis $0.03/Bild Batch-Konzeptentwürfe, chinesische Prompts, Skizzen-Exploration

Beide Skills teilen sich denselben APIYI_API_KEY, das Backend läuft einheitlich über das APIYI-Gateway. Sie können beide gleichzeitig installieren, damit der OpenClaw-Agent je nach Szenario automatisch wählt: Poster-Erstellung über den Direktaufruf, 100 Varianten über den Wirtschaftsmodus.

1.4 Das zugrunde liegende Backend: APIYI apiyi.com Drei-Leitungs-System

Die HTTP-Anfragen beider Skills gehen standardmäßig an api.apiyi.com, das Hauptportal von APIYI.

🎯 Leitungsempfehlung: Wir empfehlen, in Produktionsumgebungen die APIYI_BASE_URL von OpenClaw auf die Hochleistungsleitung von APIYI apiyi.com, vip.apiyi.com, umzustellen, insbesondere bei Batch-Aufträgen. Das Hauptportal api.apiyi.com eignet sich für den täglichen Einzelaufruf, die VIP-Leitung vip.apiyi.com für Batch-Aufträge/nächtliche Warteschlangen, und b.apiyi.com dient als automatisches Fallback. Alle drei Leitungen nutzen denselben Schlüssel; Sie müssen nur eine Umgebungsvariable ändern, um zu wechseln.


2. 5 Minuten bis zur OpenClaw-Integration von gpt-image-2

openclaw-gpt-image-2-skills-integration-de 图示

2.1 Prüfung der Voraussetzungen

Bevor Sie mit der OpenClaw-Integration von gpt-image-2 beginnen, stellen Sie sicher, dass die Umgebung bereit ist:

Element Anforderung Prüfbefehl
OpenClaw installiert Neueste Version openclaw --version
Node.js 18+ node --version
Python 3.10+ (optional) python3 --version
npx Mit Node enthalten npx --version
Netzwerk Zugriff auf github.com und api.apiyi.com curl -I api.apiyi.com
APIYI-Schlüssel Über das APIYI-Dashboard Prüfen auf sk--Präfix

⚠️ Hinweis: Falls der Befehl npx skills in Ihrer OpenClaw-Version nicht gefunden wird, führen Sie ein Update durch (openclaw update). Die Skills CLI ist eine Kernfunktion des OpenClaw 2026-Ökosystems und in älteren Versionen möglicherweise nicht verfügbar.

2.2 Schritt 1: Skill mit einem Befehl installieren

Öffnen Sie Ihr Terminal und installieren Sie den entsprechenden Skill basierend auf Ihrem Anwendungsfall. Wir empfehlen, beide zu installieren:

# Standard (empfohlen für den täglichen Gebrauch)
npx skills add https://github.com/wuchubuzai2018/expert-skills-hub \
  --skill apiyi-gpt-image-2-gen

# Erweitert (gut für Batch-Verarbeitung/chinesische Eingabeaufforderungen)
npx skills add https://github.com/wuchubuzai2018/expert-skills-hub \
  --skill apiyi-gpt-image-2-all-gen

Nach Abschluss der Installation wird der Skill im Standard-Skill-Verzeichnis von OpenClaw abgelegt (normalerweise ~/.openclaw/skills/). Sie können dies mit folgendem Befehl überprüfen:

npx skills list
# Erwartete Ausgabe:
# - apiyi-gpt-image-2-gen       ✓ installiert
# - apiyi-gpt-image-2-all-gen   ✓ installiert

2.3 Schritt 2: API-Schlüssel konfigurieren

Für die OpenClaw-Integration von gpt-image-2 ist lediglich eine Umgebungsvariable erforderlich:

# macOS / Linux
export APIYI_API_KEY="sk-your-key-here"

# Windows PowerShell
$env:APIYI_API_KEY = "sk-your-key-here"

Es empfiehlt sich, diese Zeile zur dauerhaften Speicherung in Ihre ~/.zshrc oder ~/.bashrc einzutragen.

🎯 Schlüssel abrufen: Besuchen Sie APIYI unter apiyi.com, registrieren Sie sich und gehen Sie zum Dashboard → API-Schlüssel → Neuen Schlüssel erstellen. Wir empfehlen, ein Nutzungslimit festzulegen (z. B. 50 ¥ pro Tag), um versehentliche Mehrkosten durch den Agenten zu vermeiden.

Optionale Umschaltung der Leitungen, falls Sie bei Batch-Prozessen eine hohe Parallelität benötigen:

export APIYI_BASE_URL="https://vip.apiyi.com/v1"   # VIP-Leitung
# oder
export APIYI_BASE_URL="https://b.apiyi.com/v1"     # Backup

Ohne Konfiguration wird standardmäßig https://api.apiyi.com/v1 verwendet.

2.4 Schritt 3: Erstes Bild generieren (Node.js)

Nach der Installation des Skills sind Beispielskripte enthalten. Der einfachste Testbefehl:

cd ~/.openclaw/skills/apiyi-gpt-image-2-gen

node scripts/generate_image.js \
  -p "A minimalist poster with the text 'HELLO 2026' centered" \
  -s "1024x1024" \
  -q "medium" \
  -o "png" \
  -f "./hello_2026.png"

Nach etwa 20–40 Sekunden erscheint im Terminal:

✔ Bild generiert: ./hello_2026.png (1024x1024, png, 312 KB)

Öffnen Sie hello_2026.png. Sie sollten ein sauberes, minimalistisches Poster mit dem klaren Text "HELLO 2026" sehen. Wenn der Text scharf ist, funktioniert die gesamte Kette (OpenClaw Skill → APIYI api.apiyi.com → OpenAI gpt-image-2) einwandfrei.

2.5 Schritt 4: Erstes Bild generieren (Python-Version)

Falls Ihr Projekt auf Python basiert, enthält derselbe Skill auch Python-Skripte:

cd ~/.openclaw/skills/apiyi-gpt-image-2-gen

python3 scripts/generate_image.py \
  -p "A minimalist poster with the text 'HELLO 2026' centered" \
  -s "1024x1024" \
  -q "medium" \
  -o "png" \
  -f "./hello_2026.png"

Die Parameter sind identisch mit der Node.js-Version: -p/-s/-q/-o/-f (oder die entsprechenden Langformen --prompt/--size/--quality/--output-format/--filename).

💡 Kein Wechsel der Laufzeitumgebung nötig: Da beide Skripte im Skill-Paket enthalten sind, können Sie in einem Projekt sowohl Node (für Frontend-Aufgaben) als auch Python (für Data Science) verwenden. Der Skill für die OpenClaw-Integration von gpt-image-2 behandelt beide Sprachen als gleichwertige Bürger.

2.6 Schritt 5: Aufruf über natürliche Sprache in OpenClaw

Die CLI dient lediglich der Überprüfung. Der eigentliche Nutzen liegt in der autonomen Ausführung durch OpenClaw. Starten Sie OpenClaw und erteilen Sie den Befehl einfach in natürlicher Sprache:

Benutzer: Erstelle mir mit gpt-image-2 ein 4K-Produktbild einer Keramiktasse,
          morgendliches weiches Licht, schlichter Hintergrund, PNG-Format, 
          speichern unter ./output/tea_cup.png

OpenClaw: Alles klar, ich verwende den Skill apiyi-gpt-image-2-gen für diese Anfrage.
          Parameter: size=3840x2160, quality=high, output-format=png
          Generierung läuft...
          ✔ Fertig: ./output/tea_cup.png (3840x2160, 2.4 MB)

Die Inferenzschicht von OpenClaw führt dabei folgende Schritte aus:

  1. Identifizierung des Aufgabentyps = Bilderzeugung
  2. Vergleich der SKILL.md-Dateien beider Skills und Auswahl von apiyi-gpt-image-2-gen (da der Nutzer 4K + PNG wünscht)
  3. Übersetzung von "4K" in 3840x2160 und Integration von "morgendliches weiches Licht" in die Eingabeaufforderung
  4. Ausführung von generate_image.js und Rückgabe des Dateipfads

Sie haben lediglich einen Satz formuliert, ohne eine einzige Zeile Python- oder Node-Code zu schreiben. Genau das ist der Kernwert der OpenClaw-Integration von gpt-image-2 über den Skill-Pfad.

III. Kurzübersicht der Parameter für den Aufruf von gpt-image-2 in OpenClaw

3.1 Forward-Skill: apiyi-gpt-image-2-gen

Dies ist der Modus für präzise Steuerung, der standardmäßig empfohlen wird. Hier ist die vollständige Parameterliste:

Option Langform Wertebereich Standard Beschreibung
-p --prompt Text Erforderlich Bildbeschreibung, empfohlen als Mischung aus Englisch und Deutsch
-s --size WIDTHxHEIGHT 1024x1024 Beliebiges Vielfaches von 16, max. 3840x3840
-q --quality low/medium/high/auto auto Für Poster high, für Skizzen low wählen
-o --output-format png/jpeg/webp png Transparenter Hintergrund erfordert png
-c --output-compression 0-100 85 Nur für jpeg/webp wirksam
-i --input-image Pfad (wiederholbar) Keine Bis zu 5 Referenzbilder
-m --mask Pfad Keine Schwarz-Weiß-Maske, Weiß = Bearbeitungsbereich
-f --filename Pfad ./output.png Ausgabedatei

Kurzübersicht für gängige Größen:

Verwendungszweck Empfohlene Größe
WeChat Moments 1080x1080
Xiaohongshu Hochformat 1080x1440
Bilibili-Cover 1920x1080
Blog-Header 1600x900
4K-Poster 3840x2160
Langes Banner 2400x800
Handy-Hintergrund 1170x2532

3.2 Reverse-Skill: apiyi-gpt-image-2-all-gen

Dies ist die wirtschaftliche Batch-Variante, die pro Bild ca. $0,03 kostet. Die Parameter sind minimalistischer:

Option Langform Wertebereich Beschreibung
-p --prompt Text Beschreibung, Größe/Verhältnis direkt im Text angeben
-r --response-format url / b64_json url liefert 24h CDN-Link, b64_json liefert Base64
-i --input-image Pfad (wiederholbar) Bis zu 5 Referenzbilder
-f --filename Pfad Ausgabedatei (wird im url-Modus automatisch geladen)

Der Reverse-Skill unterstützt keine -s/-q/-o Parameter, da das zugrunde liegende Modell dialogbasiert ist und die Größe über den Prompt definiert werden muss:

# Korrektes Beispiel
-p "Generiere ein 16:9 Querformat-Hintergrundbild, Sci-Fi-Stadt bei Nacht, Neonlichter"

# Falsches Beispiel (Reverse-Modus unterstützt kein -s)
-p "Sci-Fi-Stadt bei Nacht" -s "1920x1080"  # ❌

3.3 Drei Praxisbeispiele

Praxis 1: 4K-Filmplakat (Forward-Skill)

node scripts/generate_image.js \
  -p "Cinematic poster for sci-fi novel 'NEON HORIZON', \
     dark blue and magenta gradient sky, lone silhouette on cliff, \
     bold serif title centered at top, subtle tagline bottom, \
     35mm film grain" \
  -s "3840x5760" \
  -q "high" \
  -o "png" \
  -f "./poster_neon_horizon.png"
  • 2:3 Hochformat 4K
  • quality=high sorgt für scharfen Text
  • Dauer ca. 3–5 Minuten (4K-Generierungszeit hängt stark von der Qualität ab)

Praxis 2: Maskiertes Inpainting (Forward-Skill + Referenzbild + Maske)

node scripts/generate_image.js \
  -p "Replace the background with luxurious white marble countertop, \
     soft natural window light from the left, \
     keep product subject pixel-stable" \
  -i "./coffee_cup.png" \
  -m "./coffee_cup_mask.png" \
  -s "2048x2048" \
  -q "high" \
  -f "./coffee_cup_marble.png"
  • Weiße Pixel = Hintergrund, der ersetzt werden soll
  • Schwarze Pixel = Produkt (pixelgenau beibehalten)
  • gpt-image-2 verändert die Form des Produkts nicht

Praxis 3: Batch-Konzeptentwürfe (Reverse-Skill + Schleife)

# 100 Mode-Konzepte, $0,03 pro Bild, Gesamtkosten ca. $3
for i in $(seq 1 100); do
  node scripts/generate_image.js \
    -p "Cyberpunk-Charakterdesign #${i}, modifizierte Hanfu-Kleidung, Neon-Farben, Ganzkörperansicht" \
    -r "url" \
    -f "./concepts/concept_${i}.png"
done
  • Der Reverse-Skill bietet eine stabilere Unterstützung für deutsche Prompts
  • Im -r url Modus lädt das Skript die Dateien automatisch lokal herunter
  • Für Batch-Szenarien empfiehlt sich der Wechsel auf APIYI_BASE_URL=https://vip.apiyi.com/v1

IV. Fortgeschrittene Integration von gpt-image-2 in OpenClaw

4.1 Den Agenten Skill-Auswahl überlassen

Wenn sowohl der Forward- als auch der Reverse-Skill installiert sind, wählt OpenClaw automatisch basierend auf Ihrer Anfrage. Um die Auswahl des Agenten zu präzisieren, können Sie Signalwörter in der Eingabeaufforderung verwenden:

Ihre Aussage Bevorzugter Skill des Agenten
"Hochwertig", "4K", "Poster", "Werbefoto" Forward apiyi-gpt-image-2-gen
"Skizze", "Batch", "Konzept", "Deutsch" Reverse apiyi-gpt-image-2-all-gen
"Erstelle erst mal 10 Stück" Reverse (wirtschaftlich)
"Hintergrund mit Maske ändern" Forward (Reverse unterstützt keine Masken)
"Fixpreis $0,03 pro Bild" Reverse

🎯 Tipp für Eingabeaufforderungen: Wenn Sie Begriffe wie "präzise Steuerung" oder "wirtschaftliche Batch-Verarbeitung" verwenden, trifft OpenClaw den entsprechenden Skill fast zu 100 %. Weitere Beispiele für Trigger-Wörter finden Sie in der Skill-Sektion unter docs.apiyi.com.

4.2 Skill-Ketten: Bilderzeugung → OCR → Übersetzung

Da Skills vom Agenten frei kombiniert werden können, lässt sich die OpenClaw-Integration von gpt-image-2 zu komplexen Pipelines verketten. Beispiel: "Erstelle ein Poster mit englischem Slogan und übersetze diesen dann ins Japanische":

Benutzer: Erstelle ein minimalistisches Poster mit dem englischen Slogan "Less is more",
          und generiere dann eine Version mit dem gleichen Layout, aber japanischem Text.

OpenClaw:
  Schritt 1: apiyi-gpt-image-2-gen (Englische Version)
             → ./en_poster.png
  Schritt 2: apiyi-gpt-image-2-gen (Japanische Version, mit en_poster.png als Referenzbild)
             -i ./en_poster.png
             -p "Same layout, replace text with 'より少なく、より豊かに'"
             → ./jp_poster.png

Das ist die Stärke des Skill-Ökosystems: Ein Skill erledigt eine Aufgabe, der Agent verknüpft sie zu beliebigen Workflows.

4.3 Skills in CI/CD einbinden

Die Skripte beider Skills sind standardmäßige CLI-Tools, was bedeutet, dass sie sich nahtlos in CI/CD-Pipelines integrieren lassen:

# .github/workflows/generate-og-image.yml
name: Generate OG image on release
on:
  release:
    types: [published]

jobs:
  og-image:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4
      - uses: actions/setup-node@v4
        with: { node-version: '20' }
      - run: npx skills add https://github.com/wuchubuzai2018/expert-skills-hub --skill apiyi-gpt-image-2-gen
      - env:
          APIYI_API_KEY: ${{ secrets.APIYI_API_KEY }}
        run: |
          node ~/.openclaw/skills/apiyi-gpt-image-2-gen/scripts/generate_image.js \
            -p "Release ${{ github.event.release.tag_name }} cover image" \
            -s "1200x630" \
            -q "high" \
            -f "./og-image.png"
      - uses: actions/upload-artifact@v4
        with: { name: og-image, path: ./og-image.png }

Bei jedem Release wird automatisch ein OG-Bild generiert; Agent und CI teilen sich dieselbe Skill-Definition.

4.4 Wiederverwendung in Claude Code und Cursor

Obwohl dieser Artikel sich auf OpenClaw konzentriert, folgen die Skills apiyi-gpt-image-2-gen / apiyi-gpt-image-2-all-gen dem allgemeinen Skill-Standard, daher gilt:

Client Unterstützung Anmerkung
OpenClaw Hauptszenario dieses Artikels
Claude Code Einfach in ~/.claude/skills/ ablegen
Cursor Referenzierung über Rules-Dateien
Windsurf Skill-Spezifikation kompatibel
Eigene Agenten (LangChain etc.) ⚠️ Erfordert einen Tool-Adapter

"Einmal installieren, mehrfach nutzen" – Ihre Bilderzeugungs-Fähigkeiten wandern mit Ihren Hauptwerkzeugen mit, ohne dass Sie sie jedes Mal neu schreiben müssen.

V. Häufige Fragen (FAQ) zur OpenClaw-Anbindung an gpt-image-2

F1: npx skills add meldet "command not found"?

Stellen Sie sicher, dass OpenClaw auf die neueste Version aktualisiert wurde (openclaw update), da ältere Versionen das Skills-CLI nicht enthalten. Falls der Fehler weiterhin besteht, können Sie das Repository als Fallback manuell in das Verzeichnis ~/.openclaw/skills/ klonen.

F2: Das Skript gibt "APIYI_API_KEY is not set" aus?

Prüfen Sie dies in drei Schritten:

  1. echo $APIYI_API_KEY – Überprüfen Sie, ob die Variable erfolgreich exportiert wurde.
  2. Stellen Sie sicher, dass der Schlüssel das Präfix sk- enthält.
  3. Falls Sie den Schlüssel gerade erst in die ~/.zshrc eingetragen haben, öffnen Sie ein neues Terminal, damit die Änderungen wirksam werden.

F3: Wie wechsle ich auf die Hochverfügbarkeits-Leitung vip.apiyi.com?

Es gibt zwei Möglichkeiten:

# Methode 1: Globale Umgebungsvariable
export APIYI_BASE_URL="https://vip.apiyi.com/v1"

# Methode 2: Präfix für einen einzelnen Aufruf
APIYI_BASE_URL="https://vip.apiyi.com/v1" node scripts/generate_image.js ...

Dasselbe gilt für die Backup-Domain: b.apiyi.com. Alle drei Domains nutzen denselben Schlüssel. Bei Instabilitäten der Hauptseite führt ein manueller Wechsel auf VIP meist sofort zur Wiederherstellung. Strategien hierzu finden Sie auch im offiziellen APIYI-Dokumentationsportal unter docs.apiyi.com.

F4: Wie entscheide ich mich zwischen Reverse- und Forward-Modus?

Verwenden Sie diese Entscheidungshilfe:

Wenn Sie … benötigen Wählen Sie
Präzise Kontrolle der Auflösung (z. B. 1920x1080) Forward
Masken für lokales Inpainting Forward
Hochwertige Poster ab 4K Forward
Batch-Verarbeitung von 50+ Bildern Reverse
Chinesische Prompts als Schwerpunkt Reverse
Vorhersehbare Kosten ($0,03/Bild) Reverse

Der entspannteste Weg: Installieren Sie beide und lassen Sie den OpenClaw-Agenten basierend auf Ihrer natürlichen Sprache automatisch wählen.

F5: Kann ich das in Claude Code verwenden?

Ja. Verknüpfen oder kopieren Sie das Skill-Paket von ~/.openclaw/skills/ nach ~/.claude/skills/. Claude Code erkennt die SKILL.md automatisch und registriert sie als aufrufbares Werkzeug. Der APIYI_API_KEY wird dabei gemeinsam genutzt.

F6: Sind Skills sicher?

Bei der Skill-Community ist Vorsicht geboten. Im Februar 2026 wurden 341 bösartige Skills über ClawHub verbreitet, die Atomic Stealer-Malware enthielten. Empfehlungen:

  1. Installieren Sie nur Skills aus vertrauenswürdigen Repositories (das hier genannte wuchubuzai2018/expert-skills-hub ist die offizielle APIYI-Quelle).
  2. Überprüfen Sie nach der Installation SKILL.md und den Skriptinhalt, insbesondere bei curl | bash-Befehlen oder Verbindungen zu unbekannten Domains.
  3. Nutzen Sie npx skills inspect <skill-name>, um zu sehen, welche Netzwerkadressen der Skill kontaktiert.

Alle offiziellen APIYI-Skills senden Anfragen ausschließlich an *.apiyi.com und können sicher auditiert werden.

F7: Was tun, wenn die 4K-Bilderzeugung langsam ist?

  • Das ist normal. quality=high + 3840x2160 dauert etwa 3–5 Minuten.
  • Fügen Sie außerhalb des Skripts einen Timeout-Schutz hinzu (in Bash: timeout 360 node ...).
  • Für eine schnelle Vorschau nutzen Sie zuerst size=2048x1152 quality=medium, um einen Entwurf zu erstellen, bevor Sie auf 4K hochskalieren.

F8: Wie überwache ich die Kosten?

Aktivieren Sie im APIYI-Dashboard unter apiyi.com die „Tagesbudget-Warnung“ und die „Statistik nach Schlüssel“. Wenn Sie für den OpenClaw-Schlüssel ein separates Limit festlegen, können Sie den Verbrauch überwachen und bei unerwarteten Ereignissen die Kosten begrenzen.


VI. Zusammenfassung: OpenClaw-Anbindung an gpt-image-2

Rückblickend ist der beste Weg für die OpenClaw-Anbindung an gpt-image-2 im Jahr 2026 nicht mehr das Programmieren, sondern die Installation von Skills. Die Gründe sind einfach:

  1. Schneller: Zwei Befehle (npx skills add + export KEY) und in 30 Sekunden einsatzbereit.
  2. Stabiler: HTTP-Details, Wiederholungsstrategien und Parametervalidierung sind im Skill gekapselt; Updates erfolgen automatisch durch den Skill-Autor.
  3. Breiter einsetzbar: Derselbe Skill funktioniert in OpenClaw, Claude Code und Cursor.
  4. Intelligenter: Der Agent versteht die SKILL.md und entscheidet selbst, wann und welcher Skill genutzt werden soll.

Die von APIYI bereitgestellten Skills apiyi-gpt-image-2-gen (für präzise Kontrolle) und apiyi-gpt-image-2-all-gen (für wirtschaftliche Batch-Aufträge) decken die häufigsten Szenarien ab. Beide gleichzeitig zu installieren ist der effizienteste Startpunkt – egal ob 4K-Poster oder 100 Konzeptentwürfe, der OpenClaw-Agent wählt automatisch das richtige Werkzeug.

🎯 Empfehlung für den Start: Beantragen Sie bei APIYI (apiyi.com) einen Testschlüssel (empfohlenes Tageslimit: 20–50 ¥) und führen Sie das Minimalbeispiel aus §2 durch. Sobald die Verbindung steht, experimentieren Sie mit 4K-Postern und Masken-Inpainting aus §3. Bei Leitungsstörungen können Sie APIYI_BASE_URL jederzeit auf vip.apiyi.com oder b.apiyi.com umstellen. Für komplexere Skill-Kombinationen oder CI/CD-Beispiele schauen Sie in die offizielle APIYI-Dokumentation unter docs.apiyi.com.

Damit verfügen Sie über eine vollständige, clientübergreifende Lösung für OpenClaw und gpt-image-2. Das Einzige, was Sie jetzt noch tun müssen, ist den Punkt „Bild-Tool programmieren“ dauerhaft von Ihrer To-do-Liste zu streichen – überlassen Sie das einfach den Skills.


Autor: APIYI Technik-Team
Ressourcen:

  • Skills-Repository: github.com/wuchubuzai2018/expert-skills-hub
  • OpenClaw-Homepage: github.com/openclaw/openclaw
  • APIYI-Website: apiyi.com
  • APIYI-Dokumentation: docs.apiyi.com
  • APIYI-Hauptseite: api.apiyi.com (Backup: vip.apiyi.com / b.apiyi.com)

Ähnliche Beiträge