OpenAI выпустила GPT-5.4 в двух версиях: Thinking и Pro. Модель получила расширенный контекст до 1 млн токенов, интерактивное управление ответом и ускоренный режим в Codex. Для маркетинга и продуктовой работы это меняет несколько рабочих сценариев — но за всё придётся платить буквально.
Что случилось
По данным OpenAI, GPT-5.4 улучшила показатели по математике (значительно), по кодингу (умеренно) и по computer use — автономному управлению интерфейсами. Последнее OpenAI выделяет особо.
Модель стала тратить меньше токенов на внутренние рассуждения и отвечать быстрее. Параллельно выросла стоимость использования. Соотношение "качество/цена" нужно считать под каждый сценарий — универсального ответа нет.
Почему это важно для маркетинга и денег
- Контекст 1 млн токенов — теперь в один промпт влезает весь CRM-срез, история переписки с клиентом или годовой контент-план. Меньше дробления задач, меньше потерь контекста между сессиями.
- Интерактивное управление ответом — можно остановить генерацию на середине и дополнить инструкцию. Это меняет логику промпт-инжиниринга: итерация происходит внутри одного запроса, а CAC (стоимость привлечения) на выходе ИИ-контента снижается за счёт скорости правок.
- Режим /fast в Codex — ускорение в 1,5× при двойном расходе токенов. Для задач, где скорость важнее экономии (дедлайн, A/B-тест запускается сегодня), это рабочий инструмент. Для потоковой генерации — пересчитайте unit-экономику до запуска.
Где обычно ломается система
- Контекст растёт, промпты остаются старыми: команда заливает большой объём данных → модель выдаёт "каша" → виноват инструмент, а причина — отсутствие структурированного шаблона под длинный контекст.
- Режим /fast без контроля расхода: ускорение включили по умолчанию → токены в лимитах считаются вдвойне → бюджет на API заканчивается в середине месяца → команда стопорится.
- Цена выросла, пересчёта не было: обновили модель → LTV (пожизненная ценность клиента) на ИИ-фичу не пересчитали → маржа просела незаметно, пока не закрыли квартал.
Как применить в среднем бизнесе за 30 дней
- Аудит текущих сценариев — выпишите топ-5 задач, где используете ИИ. Для каждой зафиксируйте средний расход токенов и стоимость сейчас.
- Тест длинного контекста — возьмите одну задачу с фрагментированными данными (например, анализ отзывов или контент-стратегия) и прогоните через 1 млн токенов. Замерьте качество и время.
- Решение по /fast — посчитайте, в каких сценариях двойной расход токенов оправдан скоростью. Установите правило: /fast только под дедлайн, иначе стандартный режим.
- Пересчёт unit-экономики — обновите стоимость токенов в модели расчёта CAC для ИИ-ассистированных задач. Если маржа не изменилась — хорошо. Если упала — это сигнал к оптимизации промптов.
Риски и ограничения
- Рост стоимости без роста выручки — повышение цены модели прямо давит на маржу продуктов с ИИ внутри. Снижение: зафиксировать потолок бюджета на API и мониторить еженедельно.
- Переоценка computer use — функция автономного управления интерфейсами звучит сильно, но в боевых условиях требует тщательного тестирования под конкретные сценарии. Внедрять в критические процессы без пилота — риск.
- Иллюзия точности на длинном контексте — большой контекст улучшает охват, но не гарантирует корректность выводов. Выходные данные из длинных сессий нужно валидировать, особенно в аналитике и отчётности.
Вывод
GPT-5.4 даёт реальные улучшения по скорости и работе с большими объёмами данных. Платить за это придётся — буквально. Кому стоит обновляться сейчас: команды с высокой частотой ИИ-задач и чёткой unit-экономикой. Кому подождать: все, кто ещё не считал стоимость токенов в себестоимости продукта.
Пока без комментариев. Будьте первым.