Дональд Кнут — автор «Искусства программирования», человек, которому Turing Award дали ещё в 1974 году, — опубликовал статью, где прямо признаёт: языковая модель решила задачу, с которой он сам не справился. Для маркетолога это звучит как абстракция. Для собственника, который платит за ИИ-инструменты — уже нет.
Что случилось
Кнут работал над четвёртым томом своей главной книги, столкнулся с комбинаторной задачей про гамильтоновы циклы в ориентированном графе и потратил на неё несколько недель. Нашёл решение только для одного частного случая (m = 3). Его коллега Филип Стапперс эмпирически добрался до m = 16, но общего решения у них не было.
Стапперс задал задачу Claude Opus 4.6. Модель думала около часа и выдала конструкцию, которая работает для всех нечётных m. Кнут назвал задачу «Claude's Cycles» и написал, что ему придётся пересмотреть своё отношение к генеративному ИИ. Статья опубликована на сайте Стэнфорда.
Почему это важно для маркетинга и денег
- Переоценка инструмента — рынок долго продавал ИИ как «помощник для текстов». Случай с Кнутом фиксирует сдвиг: модель способна закрывать задачи уровня R&D (исследований и разработок). Это меняет то, как компании должны ставить задачи системам.
- CAC (стоимость привлечения) на интеллектуальные ресурсы — час работы модели заменил несколько недель работы нескольких дорогих специалистов. Для бизнеса с аналитическими или продуктовыми задачами это прямое влияние на unit-экономику.
- Доверие к выводам модели — если ИИ способен на математически верифицируемый прорыв, аргумент «это просто генерация текста» больше не работает как отмазка при принятии решений.
Где обычно ломается система (узкие места)
- Постановка задачи: команда формулирует запрос размыто → модель даёт общий ответ → вывод «ИИ бесполезен» → задача остаётся нерешённой.
- Верификация результата: модель даёт решение → никто не проверяет логику → внедряют ошибочный вывод → потери в продукте или стратегии.
- Масштабирование использования: один человек в компании пробует инструмент → результат не передаётся команде → знание гибнет в личном чате.
Как применить в среднем бизнесе за 30 дней
- Аудит «подвисших» задач — выписать 3–5 аналитических или продуктовых вопросов, которые висят дольше месяца без ответа / измерить, сколько времени на них уходит.
- Тест на сложных запросах — взять одну реальную задачу (анализ данных, поиск закономерности, оптимизация процесса) и прогнать через Claude или аналог с подробной формулировкой / зафиксировать качество и время.
- Протокол верификации — любой вывод модели по важным решениям проверяется профильным специалистом внутри компании / KPI: доля непроверенных решений = 0.
- Внутренняя передача знаний — результаты удачных сессий с моделью оформляются в базу знаний / измерить: сколько коллег использовали находку в течение месяца.
Риски и ограничения (без розовых очков)
- Задача Кнута математически верифицируема — бизнес-задачи часто нет. Модель может выдать уверенно звучащую ерунду, и без проверки это дорого обойдётся.
- Час «размышлений» модели — это не стандартный режим работы. Для сложных задач нужны расширенные режимы (extended thinking), которые стоят дороже и доступны не везде.
- Называть это «общим интеллектом» преждевременно: модель решила одну конкретную задачу в области, где есть чёткий критерий правильности. Переносить этот вывод на все задачи подряд — ошибка обобщения.
Вывод
Кнут — человек, которому верят в вопросах алгоритмов безоговорочно — публично зафиксировал прецедент. Это сигнал пересмотреть, какие задачи вы по привычке считаете «слишком сложными для машины». Тем, кто уже использует ИИ для рутины — пора тестировать его на реальных проблемах. Тем, кто ждёт — счётчик идёт.
Пока без комментариев. Будьте первым.