📚AI 编程官方教程中文版
📘 OpenAI Codex📚 官方教程中文版模型、价格与效率

提升 Codex 响应速度

Codex 的 speed(速度)不是只有“换更快模型”一种方式。官方文档里有两个概念需要分清:

Codex 的 speed(速度)不是只有“换更快模型”一种方式。官方文档里有两个概念需要分清:

  • Fast mode(快速模式):让支持的模型更快响应,但按更高倍率消耗 credits。
  • Codex-Spark:一个独立模型选择,速度更快、能力更轻,且有自己的 usage limits。

Fast mode 快速模式

Codex 支持用更多 credits 换取更快模型速度。

Fast mode 会把支持模型的速度提升到 1.5x,同时比 Standard mode(标准模式)消耗更多 credits。

当前 Fast mode 支持:

ModelSpeedCredit consumption
GPT-5.51.5x2.5x Standard rate
GPT-5.41.5x2x Standard rate

在 CLI 中可以用下面三个命令切换或查看状态:

/fast on
/fast off
/fast status

如果你希望默认启用 Fast mode,可以在 config.toml 中持久化配置:

service_tier = "fast"

[features]
fast_mode = true

Fast mode 可用于:

  • Codex IDE extension
  • Codex CLI
  • Codex app

前提是你使用 ChatGPT 登录。

如果你使用 API key,Codex 会走 standard API pricing(标准 API 价格),不能使用 Fast mode credits。

官方示例视频:

https://developers.openai.com/videos/codex/fast-mode-demo.mp4

Codex-Spark

GPT-5.3-Codex-Spark 是一个独立的 Codex 模型。它速度更快、能力更轻,目标是 near-instant, real-time coding iteration(近乎即时的实时编程迭代)。

它和 Fast mode 的区别是:

Fast modeGPT-5.3-Codex-Spark
本质给支持的模型加速一个独立模型
代价按更高倍率消耗 credits使用自己的 usage limits
适合你仍想用 GPT-5.5 或 GPT-5.4,但希望更快日常快速 coding iteration
可用范围ChatGPT 登录下的 IDE extension、CLI、appresearch preview 阶段仅 ChatGPT Pro

官方说明:在 research preview 阶段,Codex-Spark 只面向 ChatGPT Pro subscribers(ChatGPT Pro 订阅用户)开放。

On this page