作者注:手把手教你在 Chatbox 中通過自定義端點接入 gpt-image-2,並深度解析爲什麼 Chatbox 無法像 ChatGPT 網頁版那樣連續對話修改圖片——背後是 images/generations、chat/completions、Responses API 三套端點的架構差異。
很多用戶在 Chatbox 客戶端中配置了 OpenAI API Key,輸入 gpt-image-2 想直接生圖,結果不是返回報錯就是輸出亂碼。本文將給你兩個答案:第一,Chatbox 接入 gpt-image-2 的正確做法(自定義端點配置 https://api.apiyi.com/v1/images/generations);第二,更重要的——爲什麼 Chatbox 無法像 ChatGPT 網頁版那樣"先生成一張圖,再對話調整修改"。
這不是 Chatbox 的 bug,而是 OpenAI 官方把圖像生成、對話補全、多輪編輯分配給了三個完全不同的 API 端點,Chatbox 默認走的那條路本身就不支持連續生圖編輯。
核心價值:讀完本文,你將徹底搞清楚 OpenAI 三個核心端點的邊界與能力差異,知道什麼場景下 Chatbox 夠用、什麼場景下必須切到 Responses API,以及如何用 APIYI 中轉通道在國內穩定調用任意端點。

什麼是 Chatbox 接入 gpt-image-2 的正確方式
先把最實用的內容放在前面——如果你只想立刻讓 Chatbox 跑通 gpt-image-2 生圖,按下面的步驟 5 分鐘搞定。
Chatbox 接入 gpt-image-2 的核心配置
Chatbox 默認按"聊天對話補全"的方式調用 API(即 /v1/chat/completions 端點),但 gpt-image-2 不是一個對話模型,它是一個純圖像生成模型,調用端點是 /v1/images/generations。所以你必須用 Chatbox 的「自定義端點」功能改寫默認地址。
完整配置步驟:
| 步驟 | 操作 | 關鍵參數 |
|---|---|---|
| 1 | 打開 Chatbox 設置 → 模型提供方 → 添加自定義提供方 | 選擇 OpenAI API 兼容模式 |
| 2 | API Host | https://api.apiyi.com |
| 3 | API Path(關鍵改寫) | /v1/images/generations |
| 4 | API Key | APIYI 控制檯獲取的 Bearer Token |
| 5 | Model 字段 | gpt-image-2 |
| 6 | 超時時間 | 設置 ≥ 360 秒 |
Chatbox 接入 gpt-image-2 的最小調用示例
下面是官方推薦的 curl 調用示例,可以先用它驗證你的 API Key 是否可用:
curl --request POST \
--url https://api.apiyi.com/v1/images/generations \
--header 'Authorization: Bearer sk-your-apiyi-key' \
--header 'Content-Type: application/json' \
--data '{
"model": "gpt-image-2",
"prompt": "橫版 16:9 電影畫幅,黃昏時的海邊老燈塔"
}'
跑通這條 curl 後,再去 Chatbox 裏把端點改寫爲 /v1/images/generations,就能用了。
🎯 配置提示:第一次配置 Chatbox 自定義端點時,建議先用 curl 驗證 API Key 和端點路徑是否正常。我們建議通過 API易 apiyi.com 平臺領取測試額度,免費額度足夠你完成全套配置驗證。
Chatbox 接入 gpt-image-2 的常見配置錯誤
收集了用戶最常踩的 5 個坑:
| 錯誤現象 | 根因 | 解決方案 |
|---|---|---|
返回 model not found |
端點用了 /v1/chat/completions |
改爲 /v1/images/generations |
返回 invalid prompt format |
用了 chat 的 messages 格式 | 改用 prompt 字段(字符串) |
| 60 秒後請求超時 | 默認超時太短 | 調到 ≥ 360 秒(high 畫質需要) |
| 圖片不顯示 | Chatbox 不解析 b64_json | 讓響應返回 url 格式 |
| 中文 prompt 報錯 | 編碼問題 | 確認 Content-Type: application/json; charset=utf-8 |
Chatbox 接入 gpt-image-2 後爲什麼不能連續修改圖片
這是本文最核心的技術點——很多用戶配置完成後會問:"爲什麼我在 Chatbox 裏生成一張圖,再說'把它的天空改成藍色',模型就完全聽不懂了?而 ChatGPT 網頁版可以無限次連續修改?"
答案不是 Chatbox 的 bug,而是端點本身就不支持。
Chatbox 接入 gpt-image-2 的端點架構限制
要解釋清楚這個問題,我們必須先理解 OpenAI 官方目前提供的三個完全獨立的端點:
| 端點 | 路徑 | 設計目的 | 是否支持圖像生成 | 是否有對話狀態 |
|---|---|---|---|---|
| Chat Completions | /v1/chat/completions |
文本對話補全 | ❌ 僅圖像輸入 | ❌ 客戶端管理 |
| Image Generations | /v1/images/generations |
單次文生圖 | ✅ 僅生成 | ❌ 完全無狀態 |
| Image Edits | /v1/images/edits |
單次圖生圖/編輯 | ✅ 編輯 | ❌ 完全無狀態 |
| Responses API | /v1/responses |
多輪對話+工具調用 | ✅ 工具調用 | ✅ 服務端管理 |
關鍵真相:
- Chatbox 默認走
/v1/chat/completions——這個端點根本不支持生圖 - 你改寫到
/v1/images/generations後能生圖,但這個端點是完全無狀態的——每次請求都是孤立的 - ChatGPT 網頁版背後用的是
/v1/responses——它內置了image_generation工具調用 + 服務端對話狀態

爲什麼 ChatGPT 網頁版可以連續修改圖片
ChatGPT 網頁版背後的工作流程是這樣的:
- 你輸入"畫一隻藍色的貓"
- ChatGPT 調用
/v1/responses端點,模型決定調用image_generation工具 - 工具返回圖片 ID(例如
ig_abc123),同時記錄到當前會話的服務端狀態 - 你接着說"把它換成紅色"
- ChatGPT 再次調用
/v1/responses,傳入previous_response_id - 模型基於上下文識別"它"指的是上一張圖,調用
image_generation工具的edit動作 - 工具基於上一張圖做編輯,返回新圖
整個過程的關鍵是 previous_response_id + 服務端對話狀態 + 內置 image_generation 工具——這三個能力 /v1/images/generations 端點全都沒有。
Chatbox 當前架構的侷限
Chatbox 是一個 Chat Completions 風格的客戶端——它的核心數據模型是「messages 數組」(system / user / assistant 多輪消息)。它的工作機制:
- 把用戶每條消息追加到 messages 數組
- 調用一個 chat 風格端點(默認
/v1/chat/completions) - 把響應追加到 messages
- 循環
當你把端點改寫爲 /v1/images/generations 時,Chatbox 實際上只是把請求路徑換了一下——但 messages 數組還在按 chat 格式發送,端點也只接受單次 prompt,對話狀態完全無法傳遞。
💡 技術解讀:Chatbox 的核心設計假設是"端點是 chat 風格的",而 OpenAI 把圖像生成和圖像編輯設計成了獨立的 RESTful 資源端點,這是架構層面的不匹配。我們建議通過 API易 apiyi.com 平臺先測試
/v1/images/generations單次生圖,效果驗證 OK 後再規劃是否需要切換到 Responses API。
Chatbox 接入 gpt-image-2 的能力邊界與替代方案
知道了限制後,我們可以給出一份清晰的"能做什麼、不能做什麼"清單。
Chatbox + gpt-image-2 能做的事
| 場景 | 是否支持 | 說明 |
|---|---|---|
| 一句 prompt 生成單張圖 | ✅ | 標準用法 |
| 中英文 prompt | ✅ | gpt-image-2 原生支持 |
| 指定尺寸/比例 | ✅ | 通過 size 參數 |
| 指定畫質(standard/high) | ✅ | 通過 quality 參數 |
| 輸出 URL 或 base64 | ✅ | 通過 response_format 參數 |
Chatbox + gpt-image-2 不能做的事
| 場景 | 是否支持 | 替代方案 |
|---|---|---|
| 生圖後說"把它改成紅色"修改 | ❌ | 切到 Responses API |
| 多輪迭代調整畫面細節 | ❌ | 切到 Responses API |
| 上傳圖片 + prompt 做局部編輯 | ❌ Chatbox 不支持 | 切到 /v1/images/edits 或 Responses API |
| 多張參考圖融合生成 | ❌ Chatbox 不支持 | 切到 Responses API |
| 服務端記錄對話歷史 | ❌ | 切到 Responses API |

用 Responses API 實現連續生圖的最小代碼
如果你需要"對話式修改圖片",必須放棄 Chatbox 客戶端,自己寫代碼調 /v1/responses 端點:
from openai import OpenAI
client = OpenAI(
api_key="sk-your-apiyi-key",
base_url="https://api.apiyi.com/v1",
timeout=600.0
)
# 第一輪:生成初始圖片
resp1 = client.responses.create(
model="gpt-5", # Responses API 需要 gpt-5 系列
input="畫一隻在月光下漫步的藍色貓咪,寫實風格",
tools=[{"type": "image_generation"}]
)
response_id_1 = resp1.id
print("第一張圖:", resp1.output[-1])
# 第二輪:基於上一輪做修改(關鍵是 previous_response_id)
resp2 = client.responses.create(
model="gpt-5",
previous_response_id=response_id_1, # 串聯對話狀態
input="把它的顏色改成橙色,背景換成日出",
tools=[{"type": "image_generation"}]
)
print("修改後:", resp2.output[-1])
注意幾個關鍵點:
- 必須用
gpt-5或更新的模型(gpt-image-2 不能直接作爲對話模型調用) - 必須傳
tools=[{"type": "image_generation"}]啓用工具 - 必須用
previous_response_id串聯對話歷史,否則模型不知道"它"指什麼
🚀 接入建議:用 Responses API 做連續生圖時,base_url 設置爲
https://api.apiyi.com/v1,與 OpenAI 官方字段完全一致,已有的 OpenAI SDK 代碼改一行 base_url 即可切換。我們建議通過 API易 apiyi.com 接入,國內直連穩定。
Chatbox 接入 gpt-image-2 的實戰配置流程
把所有理論鋪墊完,下面給你一份完整的"從零開始"操作指南。
第一步:獲取 APIYI 平臺 API Key
- 訪問 APIYI 控制檯
api.apiyi.com - 註冊賬戶後進入「API 令牌」頁面
- 創建新 Token(建議爲不同項目使用獨立 Token)
- 複製完整的 Bearer Token(以
sk-開頭)
第二步:配置 Chatbox 自定義提供方
在 Chatbox 中操作:
- 打開「設置」→ 「模型提供方」
- 點擊「添加」→ 選擇「自定義 OpenAI 兼容提供方」
- 填寫以下字段:
名稱: APIYI - 圖像生成
API Host: https://api.apiyi.com
API Path: /v1/images/generations # 關鍵!必須改寫
API Key: sk-your-apiyi-key
默認模型: gpt-image-2
- 高級設置:
- 請求超時:600 秒
- 重試次數:2
- 字符編碼:UTF-8
第三步:發送測試 prompt
在 Chatbox 對話框中輸入:
橫版 16:9 電影畫幅,黃昏時的海邊老燈塔,
柔和的暖色調,海面有薄霧,2K 分辨率
如果配置正確,應該在 1-3 分鐘內收到返回的圖片。
第四步:常見問題快速排查
| 問題 | 檢查項 |
|---|---|
| 不返回任何內容 | 檢查 API Key 是否完整、是否有圖像生成權限 |
| 返回錯誤碼 401 | API Key 錯誤或過期,重新獲取 |
| 返回錯誤碼 404 | API Path 拼寫錯誤,確認 /v1/images/generations |
| 返回錯誤碼 429 | 觸發速率限制,等待幾分鐘後重試 |
| 返回 timeout | 超時太短,調到 600 秒 |
💡 進階建議:如果你需要把 gpt-image-2 集成到自己的應用而非桌面客戶端,建議直接用 OpenAI 官方 SDK 調用
/v1/images/generations——比 Chatbox 靈活得多。我們建議通過 API易 apiyi.com 接入,base_url 替換爲https://api.apiyi.com/v1即可。
三大端點選型決策指南
下面這份決策表幫你快速判斷什麼場景該用什麼端點:
| 你的需求 | 推薦端點 | 適用客戶端 |
|---|---|---|
| 單次文生圖(如做封面圖) | /v1/images/generations |
Chatbox / curl / SDK |
| 單次圖片編輯(帶 mask) | /v1/images/edits |
curl / SDK(Chatbox 不友好) |
| 連續對話修改圖片 | /v1/responses |
自寫代碼(Chatbox 不支持) |
| 僅文本對話 | /v1/chat/completions |
Chatbox / 任意 chat 客戶端 |
| 文本對話 + 圖像理解(看圖說話) | /v1/chat/completions |
Chatbox 支持 |

Chatbox 接入 gpt-image-2 常見問題(FAQ)
問題 1:爲什麼 Chatbox 官方不直接支持 gpt-image-2 連續生圖?
這不是 Chatbox 的設計缺陷,而是整個客戶端類型的侷限。Chatbox 的數據模型是 messages 數組(chat 風格),而 Responses API 的數據模型是 previous_response_id + 服務端對話狀態——兩者是根本不兼容的兩種範式。Chatbox 要支持這個能力,相當於要重寫整套對話引擎。
問題 2:Chatbox 自定義端點配置後,能上傳圖片讓 gpt-image-2 編輯嗎?
理論可以,實際很麻煩。/v1/images/edits 端點要求 multipart/form-data 格式上傳圖像文件,而 Chatbox 的對話框只支持文本輸入。強行配置會出現 415 錯誤。推薦替代:用 curl/Postman 或自寫腳本調 /v1/images/edits。
問題 3:APIYI 中轉通道支持 Responses API 嗎?
完全支持。APIYI 是官轉通道,請求/響應字段與 OpenAI 官方 100% 同步,包括 /v1/responses、/v1/images/generations、/v1/images/edits、/v1/chat/completions 全部 4 個核心端點。我們建議通過 API易 apiyi.com 調用 Responses API 實現連續生圖,國內直連穩定,無需代理。
問題 4:用 Chatbox 調 gpt-image-2 時,prompt 字段最長能多長?
OpenAI 官方限制 prompt 字段最長 32000 字符,實際使用建議控制在 1000 字符以內——超長 prompt 容易讓模型注意力分散,反而生成質量下降。
問題 5:能否在 Chatbox 中同時配置 Chat 模型和圖像生成模型?
可以——Chatbox 支持配置多個「自定義提供方」。建議你創建兩個:
APIYI - 對話→ 端點/v1/chat/completions→ 模型gpt-5/claude-sonnet-4-6等APIYI - 生圖→ 端點/v1/images/generations→ 模型gpt-image-2
切換提供方就能在兩種模式間切換。
問題 6:Chatbox 調用 gpt-image-2 失敗時,怎麼定位是 Chatbox 還是 API 的問題?
最快的方法是先用 curl 直接調 API——如果 curl 能跑通,問題在 Chatbox 配置;如果 curl 也失敗,問題在 API Key 或網絡。本文開頭的 curl 示例可以直接複製使用。
問題 7:通過 APIYI 調用與 OpenAI 官方有什麼差別?
字段完全一致——APIYI 是官轉通道。區別主要在三個方面:國內直連不需要代理、有專門的中文技術支持、計費透明可見。我們建議國內開發者通過 API易 apiyi.com 接入 gpt-image-2,避免網絡穩定性問題。
問題 8:什麼時候應該放棄 Chatbox,改用 Responses API 自寫代碼?
三個明確信號:
- 你需要"對話式修圖"——一次生成,多次細調
- 你需要圖片+文本的混合輸出(先講解一段然後生圖,再講解再生圖)
- 你做的是產品而不是個人玩,需要服務端管理對話狀態
滿足任一條件就該切到 Responses API。
Chatbox 接入 gpt-image-2 Key Takeaways
- Chatbox 默認走
/v1/chat/completions——這個端點根本不支持生圖,必須改寫爲/v1/images/generations /v1/images/generations是無狀態端點——每次請求都是獨立的,無法實現"連續修改"- ChatGPT 網頁版的連續生圖能力來自 Responses API——內置
image_generation工具 +previous_response_id對話狀態 - Chatbox 無法實現連續生圖不是 bug——是 chat 風格客戶端與 Responses API 範式的根本差異
- 替代方案:需要連續生圖時用 OpenAI SDK 自寫代碼調
/v1/responses,必須用 gpt-5 系列模型 - 國內調用建議:通過 API易 apiyi.com 接入,4 個核心端點全部支持,base_url 替換即可
- 快速排查:配置失敗時先用 curl 驗證,curl 能跑通問題就在客戶端而非 API
總結
Chatbox 接入 gpt-image-2 的"配置"問題只是表象,真正值得開發者理解的是 OpenAI 三套獨立端點架構——它們分別爲不同的使用場景設計,能力邊界完全不同:
- Chat Completions 是"文本對話 + 圖像理解"的端點,不能生圖
- Images Generations / Edits 是"單次生圖/編輯"的無狀態端點,簡單直接但不能多輪迭代
- Responses API 是"多輪對話 + 工具調用"的端點,唯一能實現"對話式修圖"的途徑
Chatbox 因爲是 chat 風格客戶端,只能完美適配前兩種模式中的一種——通過自定義端點改寫支持單次生圖。但要做到 ChatGPT 網頁版那種"無限對話修改",必須放棄客戶端工具,自己寫代碼調 Responses API。
理解這一點之後,你的工作流選擇就會清晰:
- 小規模、單次生圖、個人玩 → Chatbox +
/v1/images/generations - 需要連續修圖、產品級集成 → Responses API + 自寫代碼
- 批量生圖、自動化流水線 → 直接 SDK 調
/v1/images/generations
✨ 最後的建議:對於國內開發者,無論選擇哪條路,我們建議通過 API易 apiyi.com 平臺接入——4 個核心端點全部支持、與 OpenAI 官方字段 100% 一致、國內直連穩定、按 token 透明計費。新用戶還有免費測試額度,足夠你完成 Chatbox 配置和 Responses API 雙路驗證。
作者:APIYI Team
最後更新:2026-05-02
