OpenAI представила GPT-5.3-Codex-Spark — сверхбыструю модель для программирования на базе Cerebras
-
Добавлено пользователем arturbaranok - 13.02.2026 - 13:14
OpenAI выпустила исследовательский превью-релиз GPT-5.3-Codex-Spark — специализированной версии Codex, оптимизированной для сверхнизкой задержки в задачах реального времени. Модель работает на аппаратной платформе Cerebras Wafer Scale Engine 3.
Партнёрство с Cerebras выходит на практический уровень
Месяц назад OpenAI объявила о сотрудничестве с Cerebras — компанией, разрабатывающей специализированные AI-системы для ускорения генерации длинных ответов. Тогда OpenAI сообщила, что будет поэтапно интегрировать технологии Cerebras в свой inference-стек для различных сценариев — от генерации кода до создания изображений.
Теперь это партнёрство реализовано в виде конкретного продукта: GPT-5.3-Codex-Spark.
Более 1000 токенов в секунду
По заявлению OpenAI, Codex-Spark способен генерировать свыше 1000 токенов в секунду, сохраняя при этом высокое качество вывода. Это делает модель особенно подходящей для:
- интерактивного программирования,
- работы в IDE,
- CLI-сценариев,
- агентных систем с минимальной задержкой.
Codex-Spark — это уменьшенная версия GPT-5.3-Codex, поэтому по качеству она уступает полной версии. OpenAI оценивает её производительность как находящуюся между GPT-5.3-Codex и GPT-5.1-Codex-Mini.
Текущие ограничения
На старте модель поддерживает:
- контекстное окно 128K токенов,
- только текстовый ввод (без мультимодальности).
В будущем OpenAI планирует добавить:
- более длинные контексты,
- поддержку мультимодальных данных,
- более крупные версии модели.
Ограниченный доступ для Pro-пользователей
Пока GPT-5.3-Codex-Spark доступна в рамках ограниченного запуска для подписчиков ChatGPT Pro.
Особенности доступа:
- отдельные rate limits,
- использование не учитывается в стандартных лимитах,
- при повышенном спросе возможны очереди или временные ограничения.
Для доступа необходимо обновить Codex App, CLI или расширение VS Code до последних версий.
Кроме того, OpenAI предоставляет модель через API ограниченному числу партнёров для тестирования интеграции в сторонние продукты.
GPU остаются основой, но Cerebras — для сверхнизкой задержки
OpenAI подчеркнула, что GPU остаются основной вычислительной платформой для обучения и большинства inference-задач.
Однако системы Cerebras рассматриваются как более подходящие для специализированных workloads с экстремально низкой задержкой — в частности, для Codex.
Компания также отметила, что GPU и Cerebras могут использоваться совместно в рамках одного пайплайна, что позволяет балансировать пропускную способность, стоимость и latency.
Что это означает для рынка
Запуск Codex-Spark показывает, что OpenAI движется в сторону гетерогенной вычислительной архитектуры, где разные типы задач обслуживаются разными аппаратными платформами.
Если заявленная производительность в 1000+ токенов/с подтвердится на практике, это может существенно изменить пользовательский опыт в IDE и агентных средах — особенно там, где критична минимальная задержка.