-
Notifications
You must be signed in to change notification settings - Fork 8
Добавить long-context override для Codex в ~/.codex/config.toml #111
Copy link
Copy link
Closed
Labels
enhancementNew feature or requestNew feature or request
Description
Проблема
docker-git сейчас генерирует ~/.codex/config.toml без ключей model_context_window и model_auto_compact_token_limit.
В результате Codex остаётся на встроенном окне контекста из каталога модели, а для gpt-5.4 в текущем openai/codex это 272000 токенов, хотя сама модель GPT-5.4 в OpenAI API поддерживает окно до 1,050,000 токенов.
Что проверено
- В официальном
openai/codexоба TOML-ключа реально существуют:
model_context_windowmodel_auto_compact_token_limit
Источник:
- В текущем встроенном каталоге Codex для
gpt-5.4по умолчанию стоитcontext_window: 272000.
Источник:
- Официальная страница модели GPT-5.4 у OpenAI указывает
1,050,000 context window.
Источник:
- Локально на установленном
codex-cli 0.111.0override-ключи успешно читаются и не ломают запуск.
Предлагаемое решение
При генерации ~/.codex/config.toml для Codex сразу писать:
model_context_window = 1050000
model_auto_compact_token_limit = 945000Итоговый смысл:
- поднимаем usable context до максимума, который заявлен для GPT-5.4
- auto-compaction не начинает срабатывать слишком рано
- пользователь получает long-context режим из коробки
Почему именно 945000
В openai/codex auto-compact limit клампится к 90% от context_window, даже если в конфиге поставить больше.
Источник:
То есть для model_context_window = 1050000 реальный максимум auto-compact составляет 945000.
Критерии приемки
- новый контейнер/окружение от
docker-gitсоздаёт~/.codex/config.tomlуже с long-context override codexстартует без ошибок парсинга конфига- пользователь не должен руками править config ради максимального окна контекста
Reactions are currently unavailable
Metadata
Metadata
Assignees
Labels
enhancementNew feature or requestNew feature or request