Codex CLI 模型选择

Codex 支持多种 AI 模型,不同模型在速度、能力、和成本方面各有特点。本节详细介绍如何选择合适的模型。


可用模型

推荐模型

模型特点适用场景
gpt-5.4最新旗舰模型,最强编码能力复杂软件工程、专业工作
gpt-5.4-mini快速高效的轻量模型响应式编码任务、子代理
gpt-5.3-codex行业领先的编码模型复杂软件工程任务
对于大多数 Codex 任务,建议从 gpt-5.4 开始。它将强大的编码、推理、原生计算机使用和更广泛的专业工作流结合在一个模型中。

替代模型

模型特点适用场景
gpt-5.2之前用于编码和代理任务的通用模型需要深度思考的复杂调试任务

选择建议

日常编码任务

使用 gpt-5.4 作为默认选择。它在各种编码任务中表现出色。

简单/快速任务

使用 gpt-5.4-mini 当你想要更快、更低成本的选项来处理轻量编码任务或子代理。

复杂推理任务

当遇到需要深入思考的困难调试任务时,可以尝试 gpt-5.2


配置默认模型

你可以在配置文件中设置默认使用的模型:

配置默认模型

# ~/.codex/config.toml

# 设置默认模型
model = "gpt-5.4"
如果不指定模型,Codex 应用、CLI 或 IDE 扩展会默认使用推荐模型。

临时更改模型

使用命令行参数

命令行指定模型

# 使用特定模型启动
codex -m gpt-5.4

# 使用 exec 命令
codex exec -m gpt-5.4 "fix this bug"

在会话中切换

会话中切换模型

# 在 Codex 中输入
/model gpt-5.4-mini

# 或者使用 /model 命令
/model gpt-5.2

IDE 扩展中切换

在 IDE 扩展中,使用输入框下方的模型选择器来切换模型。


推理配置

Codex 支持调整推理工作量(reasoning effort):

配置值说明
minimal最小推理
low低推理
medium中等推理(默认)
high高推理
xhigh极高推理(取决于模型)

配置推理强度

# 配置默认推理强度
model_reasoning_effort = "medium"

# 为计划模式设置特定推理强度
plan_mode_reasoning_effort = "high"
更高的推理工作量会产生更深思熟虑的响应,但可能会更慢并消耗更多资源。

推理摘要

你可以控制推理摘要的详细程度:

配置值说明
auto自动选择
concise简洁摘要
detailed详细摘要
none禁用摘要

配置推理摘要

# 选择推理摘要详细程度
model_reasoning_summary = "auto"

自定义模型提供商

除了 OpenAI 的模型,你还可以配置其他模型提供商:

配置自定义提供商

[model_providers.custom]
# 提供商显示名称
name = "My Custom Provider"

# API 基础 URL
base_url = "https://api.example.com/v1"

# API 密钥环境变量
env_key = "CUSTOM_PROVIDER_API_KEY"

# 其他配置
http_headers = {
    "X-Custom-Header": "value"
}
支持任何支持 Chat Completions 或 Responses API 的模型和提供商。

服务层级

Codex 支持不同的服务层级:

服务层级说明
flex灵活层级,优化成本
fast快速层级,优先速度

配置服务层级

# 设置首选服务层级
service_tier = "fast"

模型选择最佳实践

开始新项目

使用 gpt-5.4 以获得最佳整体体验。

简单任务

使用 gpt-5.4-mini 节省成本。

复杂调试

考虑使用 gpt-5.2 进行深度调试。

子代理

子代理使用 gpt-5.4-mini 以提高效率。

定期检查更新,因为新模型和改进会不断推出。

常见问题

Q: 哪个模型最适合日常编码?

gpt-5.4 是日常编码任务的最佳选择,提供强大的能力和合理速度的平衡。

Q: 为什么建议子代理使用 mini 模型?

子代理执行较简单的任务,mini 模型可以更快地完成,同时节省成本。

Q: 可以使用自己的模型吗?

是的,可以通过配置 model_providers 来使用任何支持 Responses API 的模型。

Q: 模型选择影响成本吗?

是的,不同模型有不同的定价。查看定价页面了解详细信息。