Документация
Фреймворки

Codex CLI

Подключить агентский CLI от OpenAI к Hubris через Responses API.

Codex CLI — это локальный агент для написания и правки кода от OpenAI. По умолчанию он ходит в OpenAI Responses API (/v1/responses), а не в Chat Completions, и его можно перенаправить на Hubris через файл конфигурации.

Установка

npm install -g @openai/codex

Минимум — Node.js 20. На Windows работает через WSL2 или обычный PowerShell с глобальным npm.

Подключение к Hubris

Codex CLI читает настройки из ~/.codex/config.toml (на Windows — %USERPROFILE%\.codex\config.toml). Добавьте туда блок с провайдером Hubris и выберите его по умолчанию:

[model_providers.hubris]
name = "Hubris"
base_url = "https://api.hubris.pw/v1"
env_key = "HUBRIS_API_KEY"
wire_api = "responses"
requires_openai_auth = false

model_provider = "hubris"
model = "openai/gpt-4o-mini"

Что в этих полях:

  • base_url — корень API Hubris вместе с префиксом /v1.
  • env_key — имя переменной окружения, из которой Codex CLI возьмёт ваш API-ключ Hubris. Сам ключ держите в переменной, а не в файле:
export HUBRIS_API_KEY="sk-gw-..."   # macOS / Linux / WSL
$env:HUBRIS_API_KEY = "sk-gw-..."   # PowerShell
  • wire_api = "responses" — Codex CLI поддерживает только Responses API, поэтому значение тут единственное.
  • requires_openai_auth = false — отключает встроенный вход через ChatGPT (он не нужен, ключ берётся из HUBRIS_API_KEY).
  • model — модель из нашего каталога. Любая активная модель в формате provider/model подойдёт.

Запуск

codex

При первом запуске Codex CLI проверит конфигурацию и сделает тестовый запрос. Если ключ корректный — увидите интерактивную сессию. Если нет — ошибка авторизации, проверьте HUBRIS_API_KEY и сам ключ на странице Ключи в дашборде.

Выбор модели

Codex CLI хорошо работает с любой моделью, у которой стабильный Responses API. Рекомендации по задачам:

  • Быстрые правки, рутинаopenai/gpt-4o-mini, anthropic/claude-haiku-4.5.
  • Сложные изменения, рефакторингopenai/gpt-4o, anthropic/claude-sonnet-4.5.
  • Когда нужны рассуждения (планирование больших изменений, поиск багов) — openai/o1, openai/o3-mini.

Сменить модель можно прямо в config.toml или флагом --model:

codex --model anthropic/claude-sonnet-4.5

Полный список — на странице Каталог моделей. Цены указаны там же в рублях за 1 миллион токенов.

Тарификация

Codex CLI ничем не отличается от прямых запросов к /v1/responses — каждое сообщение списывается с баланса по тарифу выбранной модели. Токены рассуждения (если модель их использует) учитываются в выходных токенах. Историю запросов и затраты смотрите в дашборде на странице Использование.

Что дальше

Codex CLI · Hubris