Codex CLI
Подключить агентский CLI от OpenAI к Hubris через Responses API.
Codex CLI — это локальный агент для написания и правки кода от OpenAI. По умолчанию он ходит в OpenAI Responses API (/v1/responses), а не в Chat Completions, и его можно перенаправить на Hubris через файл конфигурации.
Установка
npm install -g @openai/codexМинимум — Node.js 20. На Windows работает через WSL2 или обычный PowerShell с глобальным npm.
Подключение к Hubris
Codex CLI читает настройки из ~/.codex/config.toml (на Windows — %USERPROFILE%\.codex\config.toml). Добавьте туда блок с провайдером Hubris и выберите его по умолчанию:
[model_providers.hubris]
name = "Hubris"
base_url = "https://api.hubris.pw/v1"
env_key = "HUBRIS_API_KEY"
wire_api = "responses"
requires_openai_auth = false
model_provider = "hubris"
model = "openai/gpt-4o-mini"Что в этих полях:
base_url— корень API Hubris вместе с префиксом/v1.env_key— имя переменной окружения, из которой Codex CLI возьмёт ваш API-ключ Hubris. Сам ключ держите в переменной, а не в файле:
export HUBRIS_API_KEY="sk-gw-..." # macOS / Linux / WSL$env:HUBRIS_API_KEY = "sk-gw-..." # PowerShellwire_api = "responses"— Codex CLI поддерживает только Responses API, поэтому значение тут единственное.requires_openai_auth = false— отключает встроенный вход через ChatGPT (он не нужен, ключ берётся изHUBRIS_API_KEY).model— модель из нашего каталога. Любая активная модель в форматеprovider/modelподойдёт.
Запуск
codexПри первом запуске Codex CLI проверит конфигурацию и сделает тестовый запрос. Если ключ корректный — увидите интерактивную сессию. Если нет — ошибка авторизации, проверьте HUBRIS_API_KEY и сам ключ на странице Ключи в дашборде.
Выбор модели
Codex CLI хорошо работает с любой моделью, у которой стабильный Responses API. Рекомендации по задачам:
- Быстрые правки, рутина —
openai/gpt-4o-mini,anthropic/claude-haiku-4.5. - Сложные изменения, рефакторинг —
openai/gpt-4o,anthropic/claude-sonnet-4.5. - Когда нужны рассуждения (планирование больших изменений, поиск багов) —
openai/o1,openai/o3-mini.
Сменить модель можно прямо в config.toml или флагом --model:
codex --model anthropic/claude-sonnet-4.5Полный список — на странице Каталог моделей. Цены указаны там же в рублях за 1 миллион токенов.
Тарификация
Codex CLI ничем не отличается от прямых запросов к /v1/responses — каждое сообщение списывается с баланса по тарифу выбранной модели. Токены рассуждения (если модель их использует) учитываются в выходных токенах. Историю запросов и затраты смотрите в дашборде на странице Использование.
Что дальше
- POST /v1/responses — описание самого эндпоинта, который дёргает Codex CLI.
- Аутентификация — как создать ключ и где хранить его в проекте.
- Каталог моделей — какие модели сейчас активны и сколько стоят.