Канал @data_secrets пересказал статью исследователя DeepMind (Google). Материал опубликован на официальном сайте deepmind.google. Тезис резонирует, потому что задевает фундамент: стоит ли вообще ждать от ИИ чего-то большего, чем очень дорогой автодополнение?
Суть без шелухи
Автор формулирует концепцию Abstraction Fallacy — ошибки абстракции. Распространённое допущение: если система ведёт себя достаточно разумно, при росте сложности она может стать сознательной. Автор называет это логически несостоятельным.
Сознание — физическое явление. Вычисления — описание физики, но само по себе описанием реальность не порождается. Аналогия: как бы точна ни была карта, земля из неё не возникнет.
Ключевой механизм: между физическим состоянием (ток, напряжение, транзистор) и абстрактным смыслом всегда стоит человек. Он задаёт соответствие. Без него вычисления бессмысленны в буквальном смысле. ИИ оперирует физикой. Смысл система не переживает — она его транслирует, потому что мы так интерпретируем её вывод.
Как это ломает или улучшает системы
- Позиционирование продуктов на базе ИИ — если сознания нет и быть не может, маркетинг "эмпатичного ИИ" и "ИИ, который понимает вас" — прямая ложь. Регуляторы в ЕС и Великобритании в 2025–2026 годах ужесточили требования к рекламным заявлениям о возможностях ИИ. Риск репутационных и юридических потерь растёт.
- Инвестиционные решения — компании, строящие продуктовую стратегию на гипотезе об AGI с сознанием, закладывают в дорожную карту несуществующий актив. Это прямо влияет на CAC (стоимость привлечения клиента) и LTV (пожизненную ценность клиента): если обещанная "магия" не реализуется, отток ускоряется.
Мой рентген
Автор прав в одном принципиальном месте: масштаб вычислений сам по себе не порождает новое качество, если архитектура принципиально иная. Больше параметров — лучше имитация, точнее предсказание токена. Это не путь к субъективному опыту.
Где тезис упирается в ограничения: мы пока не знаем, что именно в физике мозга порождает сознание. Интегрированная информационная теория (IIT), теория глобального рабочего пространства — конкурирующие гипотезы, ни одна не верифицирована экспериментально. Утверждать "никогда и ни при какой мощности" — это тоже метафизика, пусть и в другую сторону.
Для практика главное: ИИ в 2026 году — это вероятностный предсказатель. Он решает задачи автоматизации, снижения CPL (стоимости лида) и масштабирования контента. Философский статус системы на эти KPI (ключевые показатели эффективности) не влияет.
Вывод
Тезис об ошибке абстракции логически состоятелен и полезен как прививка от хайпа. Его стоит принять в части управленческих решений: перестать ждать от ИИ эмпатии, интуиции и стратегического мышления. Инструмент — он и есть инструмент.
Пока без комментариев. Будьте первым.