|

Chatbox 接入 gpt-image-2 完整教程:3 个端点差异解释为什么不能连续生图

作者注:手把手教你在 Chatbox 中通过自定义端点接入 gpt-image-2,并深度解析为什么 Chatbox 无法像 ChatGPT 网页版那样连续对话修改图片——背后是 images/generations、chat/completions、Responses API 三套端点的架构差异。

很多用户在 Chatbox 客户端中配置了 OpenAI API Key,输入 gpt-image-2 想直接生图,结果不是返回报错就是输出乱码。本文将给你两个答案:第一,Chatbox 接入 gpt-image-2 的正确做法(自定义端点配置 https://api.apiyi.com/v1/images/generations);第二,更重要的——为什么 Chatbox 无法像 ChatGPT 网页版那样"先生成一张图,再对话调整修改"。

这不是 Chatbox 的 bug,而是 OpenAI 官方把图像生成、对话补全、多轮编辑分配给了三个完全不同的 API 端点,Chatbox 默认走的那条路本身就不支持连续生图编辑。

核心价值:读完本文,你将彻底搞清楚 OpenAI 三个核心端点的边界与能力差异,知道什么场景下 Chatbox 够用、什么场景下必须切到 Responses API,以及如何用 APIYI 中转通道在国内稳定调用任意端点。

chatbox-gpt-image-2-integration-tutorial 图示

什么是 Chatbox 接入 gpt-image-2 的正确方式

先把最实用的内容放在前面——如果你只想立刻让 Chatbox 跑通 gpt-image-2 生图,按下面的步骤 5 分钟搞定。

Chatbox 接入 gpt-image-2 的核心配置

Chatbox 默认按"聊天对话补全"的方式调用 API(即 /v1/chat/completions 端点),但 gpt-image-2 不是一个对话模型,它是一个纯图像生成模型,调用端点是 /v1/images/generations。所以你必须用 Chatbox 的「自定义端点」功能改写默认地址。

完整配置步骤

步骤 操作 关键参数
1 打开 Chatbox 设置 → 模型提供方 → 添加自定义提供方 选择 OpenAI API 兼容模式
2 API Host https://api.apiyi.com
3 API Path(关键改写) /v1/images/generations
4 API Key APIYI 控制台获取的 Bearer Token
5 Model 字段 gpt-image-2
6 超时时间 设置 ≥ 360 秒

Chatbox 接入 gpt-image-2 的最小调用示例

下面是官方推荐的 curl 调用示例,可以先用它验证你的 API Key 是否可用:

curl --request POST \
  --url https://api.apiyi.com/v1/images/generations \
  --header 'Authorization: Bearer sk-your-apiyi-key' \
  --header 'Content-Type: application/json' \
  --data '{
    "model": "gpt-image-2",
    "prompt": "横版 16:9 电影画幅,黄昏时的海边老灯塔"
  }'

跑通这条 curl 后,再去 Chatbox 里把端点改写为 /v1/images/generations,就能用了。

🎯 配置提示:第一次配置 Chatbox 自定义端点时,建议先用 curl 验证 API Key 和端点路径是否正常。我们建议通过 API易 apiyi.com 平台领取测试额度,免费额度足够你完成全套配置验证。

Chatbox 接入 gpt-image-2 的常见配置错误

收集了用户最常踩的 5 个坑:

错误现象 根因 解决方案
返回 model not found 端点用了 /v1/chat/completions 改为 /v1/images/generations
返回 invalid prompt format 用了 chat 的 messages 格式 改用 prompt 字段(字符串)
60 秒后请求超时 默认超时太短 调到 ≥ 360 秒(high 画质需要)
图片不显示 Chatbox 不解析 b64_json 让响应返回 url 格式
中文 prompt 报错 编码问题 确认 Content-Type: application/json; charset=utf-8

Chatbox 接入 gpt-image-2 后为什么不能连续修改图片

这是本文最核心的技术点——很多用户配置完成后会问:"为什么我在 Chatbox 里生成一张图,再说'把它的天空改成蓝色',模型就完全听不懂了?而 ChatGPT 网页版可以无限次连续修改?"

答案不是 Chatbox 的 bug,而是端点本身就不支持

Chatbox 接入 gpt-image-2 的端点架构限制

要解释清楚这个问题,我们必须先理解 OpenAI 官方目前提供的三个完全独立的端点

端点 路径 设计目的 是否支持图像生成 是否有对话状态
Chat Completions /v1/chat/completions 文本对话补全 ❌ 仅图像输入 ❌ 客户端管理
Image Generations /v1/images/generations 单次文生图 ✅ 仅生成 ❌ 完全无状态
Image Edits /v1/images/edits 单次图生图/编辑 ✅ 编辑 ❌ 完全无状态
Responses API /v1/responses 多轮对话+工具调用 ✅ 工具调用 ✅ 服务端管理

关键真相

  • Chatbox 默认走 /v1/chat/completions——这个端点根本不支持生图
  • 你改写到 /v1/images/generations 后能生图,但这个端点是完全无状态的——每次请求都是孤立的
  • ChatGPT 网页版背后用的是 /v1/responses——它内置了 image_generation 工具调用 + 服务端对话状态

chatbox-gpt-image-2-integration-tutorial 图示

为什么 ChatGPT 网页版可以连续修改图片

ChatGPT 网页版背后的工作流程是这样的:

  1. 你输入"画一只蓝色的猫"
  2. ChatGPT 调用 /v1/responses 端点,模型决定调用 image_generation 工具
  3. 工具返回图片 ID(例如 ig_abc123),同时记录到当前会话的服务端状态
  4. 你接着说"把它换成红色"
  5. ChatGPT 再次调用 /v1/responses,传入 previous_response_id
  6. 模型基于上下文识别"它"指的是上一张图,调用 image_generation 工具的 edit 动作
  7. 工具基于上一张图做编辑,返回新图

整个过程的关键是 previous_response_id + 服务端对话状态 + 内置 image_generation 工具——这三个能力 /v1/images/generations 端点全都没有。

Chatbox 当前架构的局限

Chatbox 是一个 Chat Completions 风格的客户端——它的核心数据模型是「messages 数组」(system / user / assistant 多轮消息)。它的工作机制:

  1. 把用户每条消息追加到 messages 数组
  2. 调用一个 chat 风格端点(默认 /v1/chat/completions
  3. 把响应追加到 messages
  4. 循环

当你把端点改写为 /v1/images/generations 时,Chatbox 实际上只是把请求路径换了一下——但 messages 数组还在按 chat 格式发送,端点也只接受单次 prompt,对话状态完全无法传递

💡 技术解读:Chatbox 的核心设计假设是"端点是 chat 风格的",而 OpenAI 把图像生成和图像编辑设计成了独立的 RESTful 资源端点,这是架构层面的不匹配。我们建议通过 API易 apiyi.com 平台先测试 /v1/images/generations 单次生图,效果验证 OK 后再规划是否需要切换到 Responses API。

Chatbox 接入 gpt-image-2 的能力边界与替代方案

知道了限制后,我们可以给出一份清晰的"能做什么、不能做什么"清单。

Chatbox + gpt-image-2 能做的事

场景 是否支持 说明
一句 prompt 生成单张图 标准用法
中英文 prompt gpt-image-2 原生支持
指定尺寸/比例 通过 size 参数
指定画质(standard/high) 通过 quality 参数
输出 URL 或 base64 通过 response_format 参数

Chatbox + gpt-image-2 不能做的事

场景 是否支持 替代方案
生图后说"把它改成红色"修改 切到 Responses API
多轮迭代调整画面细节 切到 Responses API
上传图片 + prompt 做局部编辑 ❌ Chatbox 不支持 切到 /v1/images/edits 或 Responses API
多张参考图融合生成 ❌ Chatbox 不支持 切到 Responses API
服务端记录对话历史 切到 Responses API

chatbox-gpt-image-2-integration-tutorial 图示

用 Responses API 实现连续生图的最小代码

如果你需要"对话式修改图片",必须放弃 Chatbox 客户端,自己写代码调 /v1/responses 端点:

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-apiyi-key",
    base_url="https://api.apiyi.com/v1",
    timeout=600.0
)

# 第一轮:生成初始图片
resp1 = client.responses.create(
    model="gpt-5",  # Responses API 需要 gpt-5 系列
    input="画一只在月光下漫步的蓝色猫咪,写实风格",
    tools=[{"type": "image_generation"}]
)

response_id_1 = resp1.id
print("第一张图:", resp1.output[-1])

# 第二轮:基于上一轮做修改(关键是 previous_response_id)
resp2 = client.responses.create(
    model="gpt-5",
    previous_response_id=response_id_1,  # 串联对话状态
    input="把它的颜色改成橙色,背景换成日出",
    tools=[{"type": "image_generation"}]
)

print("修改后:", resp2.output[-1])

注意几个关键点:

  • 必须用 gpt-5 或更新的模型(gpt-image-2 不能直接作为对话模型调用)
  • 必须传 tools=[{"type": "image_generation"}] 启用工具
  • 必须用 previous_response_id 串联对话历史,否则模型不知道"它"指什么

🚀 接入建议:用 Responses API 做连续生图时,base_url 设置为 https://api.apiyi.com/v1,与 OpenAI 官方字段完全一致,已有的 OpenAI SDK 代码改一行 base_url 即可切换。我们建议通过 API易 apiyi.com 接入,国内直连稳定。

Chatbox 接入 gpt-image-2 的实战配置流程

把所有理论铺垫完,下面给你一份完整的"从零开始"操作指南。

第一步:获取 APIYI 平台 API Key

  1. 访问 APIYI 控制台 api.apiyi.com
  2. 注册账户后进入「API 令牌」页面
  3. 创建新 Token(建议为不同项目使用独立 Token)
  4. 复制完整的 Bearer Token(以 sk- 开头)

第二步:配置 Chatbox 自定义提供方

在 Chatbox 中操作:

  1. 打开「设置」→ 「模型提供方」
  2. 点击「添加」→ 选择「自定义 OpenAI 兼容提供方」
  3. 填写以下字段:
名称: APIYI - 图像生成
API Host: https://api.apiyi.com
API Path: /v1/images/generations    # 关键!必须改写
API Key: sk-your-apiyi-key
默认模型: gpt-image-2
  1. 高级设置:
    • 请求超时:600 秒
    • 重试次数:2
    • 字符编码:UTF-8

第三步:发送测试 prompt

在 Chatbox 对话框中输入:

横版 16:9 电影画幅,黄昏时的海边老灯塔,
柔和的暖色调,海面有薄雾,2K 分辨率

如果配置正确,应该在 1-3 分钟内收到返回的图片。

第四步:常见问题快速排查

问题 检查项
不返回任何内容 检查 API Key 是否完整、是否有图像生成权限
返回错误码 401 API Key 错误或过期,重新获取
返回错误码 404 API Path 拼写错误,确认 /v1/images/generations
返回错误码 429 触发速率限制,等待几分钟后重试
返回 timeout 超时太短,调到 600 秒

💡 进阶建议:如果你需要把 gpt-image-2 集成到自己的应用而非桌面客户端,建议直接用 OpenAI 官方 SDK 调用 /v1/images/generations——比 Chatbox 灵活得多。我们建议通过 API易 apiyi.com 接入,base_url 替换为 https://api.apiyi.com/v1 即可。

三大端点选型决策指南

下面这份决策表帮你快速判断什么场景该用什么端点:

你的需求 推荐端点 适用客户端
单次文生图(如做封面图) /v1/images/generations Chatbox / curl / SDK
单次图片编辑(带 mask) /v1/images/edits curl / SDK(Chatbox 不友好)
连续对话修改图片 /v1/responses 自写代码(Chatbox 不支持)
仅文本对话 /v1/chat/completions Chatbox / 任意 chat 客户端
文本对话 + 图像理解(看图说话) /v1/chat/completions Chatbox 支持

chatbox-gpt-image-2-integration-tutorial 图示

Chatbox 接入 gpt-image-2 常见问题(FAQ)

问题 1:为什么 Chatbox 官方不直接支持 gpt-image-2 连续生图?

这不是 Chatbox 的设计缺陷,而是整个客户端类型的局限。Chatbox 的数据模型是 messages 数组(chat 风格),而 Responses API 的数据模型是 previous_response_id + 服务端对话状态——两者是根本不兼容的两种范式。Chatbox 要支持这个能力,相当于要重写整套对话引擎。

问题 2:Chatbox 自定义端点配置后,能上传图片让 gpt-image-2 编辑吗?

理论可以,实际很麻烦/v1/images/edits 端点要求 multipart/form-data 格式上传图像文件,而 Chatbox 的对话框只支持文本输入。强行配置会出现 415 错误。推荐替代:用 curl/Postman 或自写脚本调 /v1/images/edits

问题 3:APIYI 中转通道支持 Responses API 吗?

完全支持。APIYI 是官转通道,请求/响应字段与 OpenAI 官方 100% 同步,包括 /v1/responses/v1/images/generations/v1/images/edits/v1/chat/completions 全部 4 个核心端点。我们建议通过 API易 apiyi.com 调用 Responses API 实现连续生图,国内直连稳定,无需代理。

问题 4:用 Chatbox 调 gpt-image-2 时,prompt 字段最长能多长?

OpenAI 官方限制 prompt 字段最长 32000 字符,实际使用建议控制在 1000 字符以内——超长 prompt 容易让模型注意力分散,反而生成质量下降。

问题 5:能否在 Chatbox 中同时配置 Chat 模型和图像生成模型?

可以——Chatbox 支持配置多个「自定义提供方」。建议你创建两个:

  • APIYI - 对话 → 端点 /v1/chat/completions → 模型 gpt-5 / claude-sonnet-4-6
  • APIYI - 生图 → 端点 /v1/images/generations → 模型 gpt-image-2

切换提供方就能在两种模式间切换。

问题 6:Chatbox 调用 gpt-image-2 失败时,怎么定位是 Chatbox 还是 API 的问题?

最快的方法是先用 curl 直接调 API——如果 curl 能跑通,问题在 Chatbox 配置;如果 curl 也失败,问题在 API Key 或网络。本文开头的 curl 示例可以直接复制使用。

问题 7:通过 APIYI 调用与 OpenAI 官方有什么差别?

字段完全一致——APIYI 是官转通道。区别主要在三个方面:国内直连不需要代理有专门的中文技术支持计费透明可见。我们建议国内开发者通过 API易 apiyi.com 接入 gpt-image-2,避免网络稳定性问题。

问题 8:什么时候应该放弃 Chatbox,改用 Responses API 自写代码?

三个明确信号:

  1. 你需要"对话式修图"——一次生成,多次细调
  2. 你需要图片+文本的混合输出(先讲解一段然后生图,再讲解再生图)
  3. 你做的是产品而不是个人玩,需要服务端管理对话状态

满足任一条件就该切到 Responses API。

Chatbox 接入 gpt-image-2 Key Takeaways

  • Chatbox 默认走 /v1/chat/completions——这个端点根本不支持生图,必须改写为 /v1/images/generations
  • /v1/images/generations 是无状态端点——每次请求都是独立的,无法实现"连续修改"
  • ChatGPT 网页版的连续生图能力来自 Responses API——内置 image_generation 工具 + previous_response_id 对话状态
  • Chatbox 无法实现连续生图不是 bug——是 chat 风格客户端与 Responses API 范式的根本差异
  • 替代方案:需要连续生图时用 OpenAI SDK 自写代码调 /v1/responses,必须用 gpt-5 系列模型
  • 国内调用建议:通过 API易 apiyi.com 接入,4 个核心端点全部支持,base_url 替换即可
  • 快速排查:配置失败时先用 curl 验证,curl 能跑通问题就在客户端而非 API

总结

Chatbox 接入 gpt-image-2 的"配置"问题只是表象,真正值得开发者理解的是 OpenAI 三套独立端点架构——它们分别为不同的使用场景设计,能力边界完全不同:

  • Chat Completions 是"文本对话 + 图像理解"的端点,不能生图
  • Images Generations / Edits 是"单次生图/编辑"的无状态端点,简单直接但不能多轮迭代
  • Responses API 是"多轮对话 + 工具调用"的端点,唯一能实现"对话式修图"的途径

Chatbox 因为是 chat 风格客户端,只能完美适配前两种模式中的一种——通过自定义端点改写支持单次生图。但要做到 ChatGPT 网页版那种"无限对话修改",必须放弃客户端工具,自己写代码调 Responses API。

理解这一点之后,你的工作流选择就会清晰:

  • 小规模、单次生图、个人玩 → Chatbox + /v1/images/generations
  • 需要连续修图、产品级集成 → Responses API + 自写代码
  • 批量生图、自动化流水线 → 直接 SDK 调 /v1/images/generations

最后的建议:对于国内开发者,无论选择哪条路,我们建议通过 API易 apiyi.com 平台接入——4 个核心端点全部支持、与 OpenAI 官方字段 100% 一致、国内直连稳定、按 token 透明计费。新用户还有免费测试额度,足够你完成 Chatbox 配置和 Responses API 双路验证。


作者:APIYI Team
最后更新:2026-05-02

类似文章