|

Chatbox 接入 gpt-image-2 完整教程:3 個端點差異解釋爲什麼不能連續生圖

作者注:手把手教你在 Chatbox 中通過自定義端點接入 gpt-image-2,並深度解析爲什麼 Chatbox 無法像 ChatGPT 網頁版那樣連續對話修改圖片——背後是 images/generations、chat/completions、Responses API 三套端點的架構差異。

很多用戶在 Chatbox 客戶端中配置了 OpenAI API Key,輸入 gpt-image-2 想直接生圖,結果不是返回報錯就是輸出亂碼。本文將給你兩個答案:第一,Chatbox 接入 gpt-image-2 的正確做法(自定義端點配置 https://api.apiyi.com/v1/images/generations);第二,更重要的——爲什麼 Chatbox 無法像 ChatGPT 網頁版那樣"先生成一張圖,再對話調整修改"。

這不是 Chatbox 的 bug,而是 OpenAI 官方把圖像生成、對話補全、多輪編輯分配給了三個完全不同的 API 端點,Chatbox 默認走的那條路本身就不支持連續生圖編輯。

核心價值:讀完本文,你將徹底搞清楚 OpenAI 三個核心端點的邊界與能力差異,知道什麼場景下 Chatbox 夠用、什麼場景下必須切到 Responses API,以及如何用 APIYI 中轉通道在國內穩定調用任意端點。

chatbox-gpt-image-2-integration-tutorial-zh-hant 图示

什麼是 Chatbox 接入 gpt-image-2 的正確方式

先把最實用的內容放在前面——如果你只想立刻讓 Chatbox 跑通 gpt-image-2 生圖,按下面的步驟 5 分鐘搞定。

Chatbox 接入 gpt-image-2 的核心配置

Chatbox 默認按"聊天對話補全"的方式調用 API(即 /v1/chat/completions 端點),但 gpt-image-2 不是一個對話模型,它是一個純圖像生成模型,調用端點是 /v1/images/generations。所以你必須用 Chatbox 的「自定義端點」功能改寫默認地址。

完整配置步驟

步驟 操作 關鍵參數
1 打開 Chatbox 設置 → 模型提供方 → 添加自定義提供方 選擇 OpenAI API 兼容模式
2 API Host https://api.apiyi.com
3 API Path(關鍵改寫) /v1/images/generations
4 API Key APIYI 控制檯獲取的 Bearer Token
5 Model 字段 gpt-image-2
6 超時時間 設置 ≥ 360 秒

Chatbox 接入 gpt-image-2 的最小調用示例

下面是官方推薦的 curl 調用示例,可以先用它驗證你的 API Key 是否可用:

curl --request POST \
  --url https://api.apiyi.com/v1/images/generations \
  --header 'Authorization: Bearer sk-your-apiyi-key' \
  --header 'Content-Type: application/json' \
  --data '{
    "model": "gpt-image-2",
    "prompt": "橫版 16:9 電影畫幅,黃昏時的海邊老燈塔"
  }'

跑通這條 curl 後,再去 Chatbox 裏把端點改寫爲 /v1/images/generations,就能用了。

🎯 配置提示:第一次配置 Chatbox 自定義端點時,建議先用 curl 驗證 API Key 和端點路徑是否正常。我們建議通過 API易 apiyi.com 平臺領取測試額度,免費額度足夠你完成全套配置驗證。

Chatbox 接入 gpt-image-2 的常見配置錯誤

收集了用戶最常踩的 5 個坑:

錯誤現象 根因 解決方案
返回 model not found 端點用了 /v1/chat/completions 改爲 /v1/images/generations
返回 invalid prompt format 用了 chat 的 messages 格式 改用 prompt 字段(字符串)
60 秒後請求超時 默認超時太短 調到 ≥ 360 秒(high 畫質需要)
圖片不顯示 Chatbox 不解析 b64_json 讓響應返回 url 格式
中文 prompt 報錯 編碼問題 確認 Content-Type: application/json; charset=utf-8

Chatbox 接入 gpt-image-2 後爲什麼不能連續修改圖片

這是本文最核心的技術點——很多用戶配置完成後會問:"爲什麼我在 Chatbox 裏生成一張圖,再說'把它的天空改成藍色',模型就完全聽不懂了?而 ChatGPT 網頁版可以無限次連續修改?"

答案不是 Chatbox 的 bug,而是端點本身就不支持

Chatbox 接入 gpt-image-2 的端點架構限制

要解釋清楚這個問題,我們必須先理解 OpenAI 官方目前提供的三個完全獨立的端點

端點 路徑 設計目的 是否支持圖像生成 是否有對話狀態
Chat Completions /v1/chat/completions 文本對話補全 ❌ 僅圖像輸入 ❌ 客戶端管理
Image Generations /v1/images/generations 單次文生圖 ✅ 僅生成 ❌ 完全無狀態
Image Edits /v1/images/edits 單次圖生圖/編輯 ✅ 編輯 ❌ 完全無狀態
Responses API /v1/responses 多輪對話+工具調用 ✅ 工具調用 ✅ 服務端管理

關鍵真相

  • Chatbox 默認走 /v1/chat/completions——這個端點根本不支持生圖
  • 你改寫到 /v1/images/generations 後能生圖,但這個端點是完全無狀態的——每次請求都是孤立的
  • ChatGPT 網頁版背後用的是 /v1/responses——它內置了 image_generation 工具調用 + 服務端對話狀態

chatbox-gpt-image-2-integration-tutorial-zh-hant 图示

爲什麼 ChatGPT 網頁版可以連續修改圖片

ChatGPT 網頁版背後的工作流程是這樣的:

  1. 你輸入"畫一隻藍色的貓"
  2. ChatGPT 調用 /v1/responses 端點,模型決定調用 image_generation 工具
  3. 工具返回圖片 ID(例如 ig_abc123),同時記錄到當前會話的服務端狀態
  4. 你接着說"把它換成紅色"
  5. ChatGPT 再次調用 /v1/responses,傳入 previous_response_id
  6. 模型基於上下文識別"它"指的是上一張圖,調用 image_generation 工具的 edit 動作
  7. 工具基於上一張圖做編輯,返回新圖

整個過程的關鍵是 previous_response_id + 服務端對話狀態 + 內置 image_generation 工具——這三個能力 /v1/images/generations 端點全都沒有。

Chatbox 當前架構的侷限

Chatbox 是一個 Chat Completions 風格的客戶端——它的核心數據模型是「messages 數組」(system / user / assistant 多輪消息)。它的工作機制:

  1. 把用戶每條消息追加到 messages 數組
  2. 調用一個 chat 風格端點(默認 /v1/chat/completions
  3. 把響應追加到 messages
  4. 循環

當你把端點改寫爲 /v1/images/generations 時,Chatbox 實際上只是把請求路徑換了一下——但 messages 數組還在按 chat 格式發送,端點也只接受單次 prompt,對話狀態完全無法傳遞

💡 技術解讀:Chatbox 的核心設計假設是"端點是 chat 風格的",而 OpenAI 把圖像生成和圖像編輯設計成了獨立的 RESTful 資源端點,這是架構層面的不匹配。我們建議通過 API易 apiyi.com 平臺先測試 /v1/images/generations 單次生圖,效果驗證 OK 後再規劃是否需要切換到 Responses API。

Chatbox 接入 gpt-image-2 的能力邊界與替代方案

知道了限制後,我們可以給出一份清晰的"能做什麼、不能做什麼"清單。

Chatbox + gpt-image-2 能做的事

場景 是否支持 說明
一句 prompt 生成單張圖 標準用法
中英文 prompt gpt-image-2 原生支持
指定尺寸/比例 通過 size 參數
指定畫質(standard/high) 通過 quality 參數
輸出 URL 或 base64 通過 response_format 參數

Chatbox + gpt-image-2 不能做的事

場景 是否支持 替代方案
生圖後說"把它改成紅色"修改 切到 Responses API
多輪迭代調整畫面細節 切到 Responses API
上傳圖片 + prompt 做局部編輯 ❌ Chatbox 不支持 切到 /v1/images/edits 或 Responses API
多張參考圖融合生成 ❌ Chatbox 不支持 切到 Responses API
服務端記錄對話歷史 切到 Responses API

chatbox-gpt-image-2-integration-tutorial-zh-hant 图示

用 Responses API 實現連續生圖的最小代碼

如果你需要"對話式修改圖片",必須放棄 Chatbox 客戶端,自己寫代碼調 /v1/responses 端點:

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-apiyi-key",
    base_url="https://api.apiyi.com/v1",
    timeout=600.0
)

# 第一輪:生成初始圖片
resp1 = client.responses.create(
    model="gpt-5",  # Responses API 需要 gpt-5 系列
    input="畫一隻在月光下漫步的藍色貓咪,寫實風格",
    tools=[{"type": "image_generation"}]
)

response_id_1 = resp1.id
print("第一張圖:", resp1.output[-1])

# 第二輪:基於上一輪做修改(關鍵是 previous_response_id)
resp2 = client.responses.create(
    model="gpt-5",
    previous_response_id=response_id_1,  # 串聯對話狀態
    input="把它的顏色改成橙色,背景換成日出",
    tools=[{"type": "image_generation"}]
)

print("修改後:", resp2.output[-1])

注意幾個關鍵點:

  • 必須用 gpt-5 或更新的模型(gpt-image-2 不能直接作爲對話模型調用)
  • 必須傳 tools=[{"type": "image_generation"}] 啓用工具
  • 必須用 previous_response_id 串聯對話歷史,否則模型不知道"它"指什麼

🚀 接入建議:用 Responses API 做連續生圖時,base_url 設置爲 https://api.apiyi.com/v1,與 OpenAI 官方字段完全一致,已有的 OpenAI SDK 代碼改一行 base_url 即可切換。我們建議通過 API易 apiyi.com 接入,國內直連穩定。

Chatbox 接入 gpt-image-2 的實戰配置流程

把所有理論鋪墊完,下面給你一份完整的"從零開始"操作指南。

第一步:獲取 APIYI 平臺 API Key

  1. 訪問 APIYI 控制檯 api.apiyi.com
  2. 註冊賬戶後進入「API 令牌」頁面
  3. 創建新 Token(建議爲不同項目使用獨立 Token)
  4. 複製完整的 Bearer Token(以 sk- 開頭)

第二步:配置 Chatbox 自定義提供方

在 Chatbox 中操作:

  1. 打開「設置」→ 「模型提供方」
  2. 點擊「添加」→ 選擇「自定義 OpenAI 兼容提供方」
  3. 填寫以下字段:
名稱: APIYI - 圖像生成
API Host: https://api.apiyi.com
API Path: /v1/images/generations    # 關鍵!必須改寫
API Key: sk-your-apiyi-key
默認模型: gpt-image-2
  1. 高級設置:
    • 請求超時:600 秒
    • 重試次數:2
    • 字符編碼:UTF-8

第三步:發送測試 prompt

在 Chatbox 對話框中輸入:

橫版 16:9 電影畫幅,黃昏時的海邊老燈塔,
柔和的暖色調,海面有薄霧,2K 分辨率

如果配置正確,應該在 1-3 分鐘內收到返回的圖片。

第四步:常見問題快速排查

問題 檢查項
不返回任何內容 檢查 API Key 是否完整、是否有圖像生成權限
返回錯誤碼 401 API Key 錯誤或過期,重新獲取
返回錯誤碼 404 API Path 拼寫錯誤,確認 /v1/images/generations
返回錯誤碼 429 觸發速率限制,等待幾分鐘後重試
返回 timeout 超時太短,調到 600 秒

💡 進階建議:如果你需要把 gpt-image-2 集成到自己的應用而非桌面客戶端,建議直接用 OpenAI 官方 SDK 調用 /v1/images/generations——比 Chatbox 靈活得多。我們建議通過 API易 apiyi.com 接入,base_url 替換爲 https://api.apiyi.com/v1 即可。

三大端點選型決策指南

下面這份決策表幫你快速判斷什麼場景該用什麼端點:

你的需求 推薦端點 適用客戶端
單次文生圖(如做封面圖) /v1/images/generations Chatbox / curl / SDK
單次圖片編輯(帶 mask) /v1/images/edits curl / SDK(Chatbox 不友好)
連續對話修改圖片 /v1/responses 自寫代碼(Chatbox 不支持)
僅文本對話 /v1/chat/completions Chatbox / 任意 chat 客戶端
文本對話 + 圖像理解(看圖說話) /v1/chat/completions Chatbox 支持

chatbox-gpt-image-2-integration-tutorial-zh-hant 图示

Chatbox 接入 gpt-image-2 常見問題(FAQ)

問題 1:爲什麼 Chatbox 官方不直接支持 gpt-image-2 連續生圖?

這不是 Chatbox 的設計缺陷,而是整個客戶端類型的侷限。Chatbox 的數據模型是 messages 數組(chat 風格),而 Responses API 的數據模型是 previous_response_id + 服務端對話狀態——兩者是根本不兼容的兩種範式。Chatbox 要支持這個能力,相當於要重寫整套對話引擎。

問題 2:Chatbox 自定義端點配置後,能上傳圖片讓 gpt-image-2 編輯嗎?

理論可以,實際很麻煩/v1/images/edits 端點要求 multipart/form-data 格式上傳圖像文件,而 Chatbox 的對話框只支持文本輸入。強行配置會出現 415 錯誤。推薦替代:用 curl/Postman 或自寫腳本調 /v1/images/edits

問題 3:APIYI 中轉通道支持 Responses API 嗎?

完全支持。APIYI 是官轉通道,請求/響應字段與 OpenAI 官方 100% 同步,包括 /v1/responses/v1/images/generations/v1/images/edits/v1/chat/completions 全部 4 個核心端點。我們建議通過 API易 apiyi.com 調用 Responses API 實現連續生圖,國內直連穩定,無需代理。

問題 4:用 Chatbox 調 gpt-image-2 時,prompt 字段最長能多長?

OpenAI 官方限制 prompt 字段最長 32000 字符,實際使用建議控制在 1000 字符以內——超長 prompt 容易讓模型注意力分散,反而生成質量下降。

問題 5:能否在 Chatbox 中同時配置 Chat 模型和圖像生成模型?

可以——Chatbox 支持配置多個「自定義提供方」。建議你創建兩個:

  • APIYI - 對話 → 端點 /v1/chat/completions → 模型 gpt-5 / claude-sonnet-4-6
  • APIYI - 生圖 → 端點 /v1/images/generations → 模型 gpt-image-2

切換提供方就能在兩種模式間切換。

問題 6:Chatbox 調用 gpt-image-2 失敗時,怎麼定位是 Chatbox 還是 API 的問題?

最快的方法是先用 curl 直接調 API——如果 curl 能跑通,問題在 Chatbox 配置;如果 curl 也失敗,問題在 API Key 或網絡。本文開頭的 curl 示例可以直接複製使用。

問題 7:通過 APIYI 調用與 OpenAI 官方有什麼差別?

字段完全一致——APIYI 是官轉通道。區別主要在三個方面:國內直連不需要代理有專門的中文技術支持計費透明可見。我們建議國內開發者通過 API易 apiyi.com 接入 gpt-image-2,避免網絡穩定性問題。

問題 8:什麼時候應該放棄 Chatbox,改用 Responses API 自寫代碼?

三個明確信號:

  1. 你需要"對話式修圖"——一次生成,多次細調
  2. 你需要圖片+文本的混合輸出(先講解一段然後生圖,再講解再生圖)
  3. 你做的是產品而不是個人玩,需要服務端管理對話狀態

滿足任一條件就該切到 Responses API。

Chatbox 接入 gpt-image-2 Key Takeaways

  • Chatbox 默認走 /v1/chat/completions——這個端點根本不支持生圖,必須改寫爲 /v1/images/generations
  • /v1/images/generations 是無狀態端點——每次請求都是獨立的,無法實現"連續修改"
  • ChatGPT 網頁版的連續生圖能力來自 Responses API——內置 image_generation 工具 + previous_response_id 對話狀態
  • Chatbox 無法實現連續生圖不是 bug——是 chat 風格客戶端與 Responses API 範式的根本差異
  • 替代方案:需要連續生圖時用 OpenAI SDK 自寫代碼調 /v1/responses,必須用 gpt-5 系列模型
  • 國內調用建議:通過 API易 apiyi.com 接入,4 個核心端點全部支持,base_url 替換即可
  • 快速排查:配置失敗時先用 curl 驗證,curl 能跑通問題就在客戶端而非 API

總結

Chatbox 接入 gpt-image-2 的"配置"問題只是表象,真正值得開發者理解的是 OpenAI 三套獨立端點架構——它們分別爲不同的使用場景設計,能力邊界完全不同:

  • Chat Completions 是"文本對話 + 圖像理解"的端點,不能生圖
  • Images Generations / Edits 是"單次生圖/編輯"的無狀態端點,簡單直接但不能多輪迭代
  • Responses API 是"多輪對話 + 工具調用"的端點,唯一能實現"對話式修圖"的途徑

Chatbox 因爲是 chat 風格客戶端,只能完美適配前兩種模式中的一種——通過自定義端點改寫支持單次生圖。但要做到 ChatGPT 網頁版那種"無限對話修改",必須放棄客戶端工具,自己寫代碼調 Responses API。

理解這一點之後,你的工作流選擇就會清晰:

  • 小規模、單次生圖、個人玩 → Chatbox + /v1/images/generations
  • 需要連續修圖、產品級集成 → Responses API + 自寫代碼
  • 批量生圖、自動化流水線 → 直接 SDK 調 /v1/images/generations

最後的建議:對於國內開發者,無論選擇哪條路,我們建議通過 API易 apiyi.com 平臺接入——4 個核心端點全部支持、與 OpenAI 官方字段 100% 一致、國內直連穩定、按 token 透明計費。新用戶還有免費測試額度,足夠你完成 Chatbox 配置和 Responses API 雙路驗證。


作者:APIYI Team
最後更新:2026-05-02

Similar Posts