Codex 模型选择

Codex 支持多种模型,了解各模型特点,根据场景选择合适的模型。


可用模型

Codex 目前支持以下模型:

模型类型特点适用场景
gpt-5.4旗舰最强能力、深度推理复杂任务、架构设计
gpt-5.4-mini轻量快速响应、成本较低简单任务、快速迭代
gpt-5.3-codex专业编程优化、代码专精代码编写、Bug 修复
gpt-5.3-codex-spark快速极速响应、高频交互实时协作、快速问答

模型特点详解

GPT-5.4

旗舰模型,具备最强的推理和创作能力。

特点说明
推理深度深度分析复杂问题
上下文理解理解大型代码库结构
多步骤任务处理复杂工作流
准确性高准确率,减少返工

适用场景

  • 架构设计和重构
  • 复杂 Bug 分析和修复
  • 多模块协调开发
  • 代码审查和质量分析

GPT-5.4-mini

轻量模型,响应快速,适合日常开发。

特点说明
响应速度比旗舰模型更快
成本效益token 消耗较少
日常任务适合常规开发操作

适用场景

  • 简单功能实现
  • 代码格式化和重构
  • 文档编写
  • 快速问答

GPT-5.3-Codex

专门针对编程任务优化的模型。

特点说明
代码专精专为编程任务训练
语言覆盖支持多种编程语言
代码质量生成的代码质量高

适用场景

  • 代码编写和生成
  • Bug 修复和调试
  • 代码重构
  • 测试编写

GPT-5.3-Codex-Spark

极速响应模型,适合高频交互场景。

特点说明
极速响应最快的响应速度
实时协作适合交互式开发
Pro 专属仅 Pro 计划可用

适用场景

  • 实时代码问答
  • 快速原型验证
  • 高频迭代开发

推理强度配置

可以调整模型的推理强度,平衡速度和深度。

推理强度级别

级别说明特点
minimal最小推理最快响应,适合简单任务
low低推理强度快速但有一定分析
medium中等推理平衡速度和深度(默认)
high高推理强度深度分析,适合复杂任务
xhigh超高推理最强推理,最慢响应

配置推理强度

推理强度设置

# CLI 指定
codex --reasoning-effort high

# 配置文件
[mycode4 type="toml"]
model_reasoning_effort = "high"
# 会话中切换 /model gpt-5.4 --reasoning-effort xhigh [/mycode4]

推理摘要

控制 Codex 显示推理过程的详细程度。

摘要模式

模式说明
auto自动决定详细程度(默认)
concise简要摘要
detailed详细推理过程
none不显示推理摘要

推理摘要设置

# ~/.codex/config.toml
model_reasoning_summary = "detailed"

模型切换

在不同场景切换使用不同模型。

切换方式

切换模型

# CLI 斜杠命令
/model gpt-5.4
/model gpt-5.4-mini
/model gpt-5.3-codex

# 带推理强度
/model gpt-5.4 --reasoning-effort high

# App 中切换
点击模型选择器,选择目标模型

场景切换建议

场景推荐模型推理强度
架构设计gpt-5.4high/xhigh
复杂重构gpt-5.4high
Bug 修复gpt-5.3-codexmedium
日常编码gpt-5.4-minilow/medium
快速问答gpt-5.4-miniminimal
实时协作gpt-5.3-codex-sparkminimal

服务层级

选择不同的服务层级影响响应优先级。

服务层级选项

层级说明
flex弹性服务,响应可能稍慢(默认)
fast优先服务,更快响应

服务层级设置

# ~/.codex/config.toml
service_tier = "fast"

模型与计划

不同计划对模型的支持有差异:

计划可用模型
Free基础模型
Plusgpt-5.4, gpt-5.4-mini, gpt-5.3-codex
Pro全部模型 + Spark + 更高限额
API Key按 token 计费,支持主流模型

成本考量

Token 消耗对比

模型相对成本
gpt-5.4最高
gpt-5.3-codex中高
gpt-5.4-mini较低
gpt-5.3-codex-spark

成本优化建议

  • 简单任务使用 mini 或 Spark 模型
  • 日常开发使用 medium 推理强度
  • 仅在复杂任务使用旗舰模型和高推理强度
  • 使用 /compact 压缩上下文减少 token 消耗

最佳实践

模型选择原则

  • 根据任务复杂度选择模型
  • 平衡响应速度和推理深度
  • 复杂任务优先准确性
  • 高频交互优先响应速度

配置建议

推荐配置

# 日常开发配置
model = "gpt-5.4-mini"
model_reasoning_effort = "medium"
model_reasoning_summary = "auto"

# 复杂任务临时切换
# /model gpt-5.4 --reasoning-effort high

常见问题

Q: 哪个模型最适合代码编写?

gpt-5.3-codex 专为编程任务优化,适合大多数代码编写场景。

Q: 如何平衡速度和质量?

日常任务使用 gpt-5.4-mini + medium 推理强度,复杂任务切换到 gpt-5.4 + high 推理强度。

Q: Spark 模型有什么优势?

Spark 模型响应最快,适合高频交互和实时协作,仅 Pro 计划可用。

Q: 推理强度如何影响结果?

更高的推理强度意味着 Codex 会进行更深入的分析,但响应时间会更长。