Разбор
Промпт-инженерия 2026: 15 техник, которые делают ИИ умнее
F1 65,6 → 91,7 от правильного промпта. Zero-Shot, Few-Shot, CoT, RAG, ReAct и 10 других техник с примерами и квизом выбора подходящей. По Prompt Engineering Guide (dair-ai), перевод @prompt_design.
Четыре слова, которые изменили точность ИИ
«Let’s think step by step» — фраза из исследования Kojima et al. (2022). Добавьте её в конец любого промпта, и модель начнёт рассуждать вслух, а не угадывать ответ. Казалось бы, мелочь.
Но главное число из этого руководства — другое.
рост точности классификации от оптимизации промпта — без изменения модели, без дообучения, только правильная инструкция
Clavié et al. (2023), классификация вакансий — базовый промпт vs оптимизированныйПромпт-инженерия — это не «лайфхаки для ChatGPT». Это дисциплина, у которой есть техники, параметры и измеримые результаты.
Анатомия хорошего промпта: 4 элемента
Промпт не обязан содержать все четыре — состав зависит от задачи. Но понять каждый важно.
Конкретная задача для модели: Classify, Summarize, Translate, Write
Внешняя информация, направляющая модель к лучшим ответам
Вопрос или данные, для которых нужен ответ
Тип или формат ожидаемого ответа (JSON, список, одно слово)
Параметры LLM: что крутить и зачем
При работе с LLM через API доступны параметры, напрямую влияющие на качество и характер ответов.
| Параметр | Что делает | Когда менять |
|---|---|---|
| temperature | Детерминированность vs креативность ответов | ↓ для фактических задач (QA) · ↑ для творческих |
| top_p | Nucleus sampling — контроль разнообразия токенов | ↓ точные/фактические · ↑ разнообразные ответы |
| max_length | Ограничение количества генерируемых токенов | Длинные ответы / контроль расходов |
| stop_sequences | Строка, при которой модель прекращает генерацию | Управление структурой ответа |
| frequency_penalty | Штраф за повторение токенов пропорционально частоте | Когда модель «зациклилась» |
| presence_penalty | Равномерный штраф за все повторения независимо от частоты | Для разнообразного текста |
Правило: меняйте temperature ИЛИ top_p — не оба одновременно. То же с frequency_penalty и presence_penalty.
5 советов по написанию промптов
Промптинг — итеративный процесс. Начните с простого промпта, постепенно добавляйте контекст. Большие задачи разбивайте на подзадачи.
Команды: Write, Classify, Summarize, Translate, Order. Ставьте инструкцию в начало. Разделяйте инструкцию и контекст символами ### или ---.
Чем детальнее и описательнее промпт — тем лучше результат. Указывайте желаемый формат вывода явно. Примеры в промпте задают ожидаемый формат ответа.
Не «объясни кратко» — а «объясни в 2–3 предложениях». Конкретность = предсказуемость. Расплывчатость = разнобой в ответах.
Формулируйте через желаемое поведение. Вместо «DON’T ASK FOR INTERESTS» — «refrain from asking users for their preferences». Запреты работают хуже инструкций.
15 техник промптинга: фильтруй по уровню
Прямая инструкция без примеров. Современные LLM (GPT-4, Claude) обучены на таком объёме данных, что справляются без демонстраций.
Несколько демонстраций в промпте направляют модель к нужному формату и поведению. Задействует in-context learning. Формат важнее правильности меток.
Промежуточные шаги рассуждения в примерах заставляют модель думать вслух. Резко улучшает результаты на логических и математических задачах. Только в крупных моделях.
Самый простой трюк: добавьте «Let’s think step by step» в конец промпта. Модель сама выстраивает цепочку рассуждений без примеров.
Несколько разных цепочек рассуждений генерируются через few-shot CoT. Выбирается наиболее согласованный ответ. Заменяет жадное декодирование.
Модель сначала генерирует релевантные факты по теме, затем использует их для ответа. Решает проблему ошибочных ответов из-за нехватки контекста.
Извлекает релевантные документы из внешней базы → объединяет с промптом → генерирует ответ. Снижает галлюцинации, адаптируется к актуальным данным.
Задача разбивается на подзадачи. Ответ одного промпта — вход для следующего. Лучше для сложных задач, прозрачность, простая отладка.
Обобщает CoT — модель поддерживает дерево мыслей. Может оценивать прогресс в промежуточных шагах. Алгоритмы BFS/DFS для систематического исследования.
LLM поочерёдно генерирует рассуждения и действия. Рассуждения — для планов. Действия — для взаимодействия с внешними источниками (поиск, API, базы данных).
Усиление агентов через лингвистическую обратную связь. Агент анализирует прошлые действия (саморефлексия) и учитывает это в следующем эпизоде. Три компонента: Актёр, Оценщик, Саморефлексия.
Автоматически генерирует и отбирает инструкции. Обнаружил промпт, превосходящий человеческий «Let’s think step by step» на бенчмарках MultiArith и GSM8K.
Автоматически генерирует промежуточные шаги рассуждений. Выбирает демонстрации из библиотеки задач, при тестировании останавливается для вызова внешних инструментов.
Фокус на структурных и синтаксических аспектах задач, а не на содержании. Абстрактные примеры, категориальный подход. Экономит токены vs few-shot.
LLM генерирует программу (код) как промежуточные шаги рассуждений. Решение делегируется программной среде (Python). Точнее CoT для вычислительных задач.
Есть вопрос по теме?
Разберу, какие техники промптинга применимы к вашим задачам прямо сейчас
Квиз: какую технику выбрать для вашей задачи?
Ключевые выводы из исследований
Правильные инструкции критичны. Кейс Clavié et al. (2023) по классификации вакансий: F1 65,6 (базовый промпт) → F1 91,7 (оптимизированный). Что сработало: чёткие инструкции, повторение ключевых моментов (reiteration), присвоение имени модели (+0,6 F1). А Few-shot CoT для несложных задач показал результаты хуже Zero-shot — добавление примеров не всегда помогает.
Параметры важнее, чем кажется. Temperature и Top P — разные механизмы одного и того же. Меняйте только один. Для маркетинговых текстов: temperature 0.7–0.9. Для фактических выжимок: temperature 0.1–0.3.
Prompt Chaining > один длинный промпт. Разбивка задачи на шаги даёт прозрачность, лёгкую отладку и лучшие результаты. Пример: шаг 1 — извлечь ключевые цитаты, шаг 2 — написать резюме на их основе.
$55 за 50 000 синтетических документов для RAG (Dai et al., 2022) — с GPT-3.5 Turbo. Существенно дешевле ручной разметки и даёт результаты, близкие к SOTA для задачно-специфического поиска.
Главный вывод: промпт-инженерия — это не разовый хак, а навык. Начните с Zero-Shot, добавьте «Let’s think step by step» для рассуждений, используйте Few-Shot когда нужен формат, RAG когда нужны внешние данные. Остальное — по мере роста задач.
Это Лёха Маркетолог — разбираю инструменты честно, с цифрами.
Есть вопрос по теме?
Пришлю шпаргалку по техникам промптинга с примерами под маркетинговые задачи
Источники:
- Prompt Engineering Guide — dair-ai. github.com/dair-ai
- Wei et al. (2022) — Chain-of-Thought Prompting Elicits Reasoning in LLMs.
- Yao et al. (2022) — ReAct: Synergizing Reasoning and Acting.
- Clavié et al. (2023) — Large Language Models in the Workplace.
- Перевод: @prompt_design, март 2026.
Схема · Бесплатно
Автоворонка 24/7 — схема для прогрева и продаж
Без спама. Пришлю на почту сразу.
Гайд · Бесплатно
Как вести соцсети и не тратить на это весь день
Без спама. Пришлю на почту сразу.
Есть вопрос по теме?
Разберу вашу ситуацию и предложу конкретный шаг
Получите чек-лист маркетингового аудита — бесплатно
Раз в неделю: кейсы, инсайты и инструменты без воды.
Источники
Читайте также
Часто задаваемые вопросы
- Что такое промпт-инженерия и зачем она нужна?
- Промпт-инженерия — дисциплина разработки и оптимизации промптов для эффективной работы с большими языковыми моделями (LLM). Она помогает понять возможности и ограничения LLM, повысить безопасность и производительность моделей в задачах от ответов на вопросы до арифметических рассуждений. Главный результат: правильный промпт может поднять точность модели с F1 65,6 до F1 91,7 — без изменения самой модели (Clavié et al., 2023).
- Чем Chain-of-Thought (CoT) отличается от обычного промптинга?
- Chain-of-Thought (CoT) промптинг (Wei et al., 2022) добавляет промежуточные шаги рассуждения, позволяя модели «думать вслух» перед ответом. Обычный промпт даёт задачу напрямую — модель отвечает сразу. CoT заставляет раскладывать задачу на подзадачи. Самый простой способ применить CoT — добавить в конец промпта фразу «Let's think step by step» (Zero-shot CoT, Kojima et al., 2022). Это работает только в достаточно крупных моделях.
- Когда использовать Few-Shot, а когда Zero-Shot промптинг?
- Zero-Shot: когда задача понятна и модель хорошо обучена — просто дайте инструкцию без примеров. Few-Shot: когда нужен специфический формат вывода, задача нестандартная или нужна более высокая точность. По Min et al. (2022), даже случайные метки в примерах лучше, чем их отсутствие — формат важнее правильности примеров. Начните с Zero-Shot, и если результат неудовлетворительный — добавьте 2-5 примеров (few-shot).
- Что такое RAG и зачем он нужен?
- RAG (Retrieval Augmented Generation) — метод, предложенный Meta AI, объединяющий поиск информации с генеративной моделью. RAG принимает запрос, извлекает релевантные документы из внешнего источника (например, Wikipedia или корпоративной базы знаний), объединяет их с исходным промптом и передаёт генератору для финального ответа. RAG снижает галлюцинации, повышает фактическую точность и адаптируется к ситуациям, когда факты меняются со временем.
- Какие параметры LLM влияют на качество ответов?
- Шесть ключевых параметров: Temperature (ниже = детерминированнее, выше = креативнее; для фактических задач — низкая, для творческих — высокая), Top P (аналогично, но через nucleus sampling), Max Length (ограничение токенов), Stop Sequences (строка остановки генерации), Frequency Penalty (штраф за повторение токенов пропорционально частоте), Presence Penalty (равномерный штраф за все повторения). Важно: меняйте temperature ИЛИ top_p, но не оба одновременно.
- Что такое ReAct промптинг и как он работает?
- ReAct (Yao et al., 2022) — фреймворк, где LLM поочерёдно генерирует цепочки рассуждений и действия. Рассуждения позволяют модели индуцировать, отслеживать и обновлять планы действий. Действия обеспечивают взаимодействие с внешними источниками (базы знаний, среды). ReAct превосходит CoT на задаче Fever (проверка фактов). Лучшие результаты даёт комбинация ReAct + CoT + Self-Consistency. Подходит для агентских систем с доступом к инструментам.
Канал «Лёха Маркетолог»
Практика без воды: кейсы, инсайты, разборы. 1–2 поста в неделю.
Пока без комментариев. Будьте первым.