3,583 papers
arXiv:2603.19453 71 19 мар. 2026 г. FREE

Feedback Engineering: многомерная обратная связь ускоряет итеративное улучшение в LLM

КЛЮЧЕВАЯ СУТЬ
Когда LLM улучшает что-то итерационно, качество обратной связи определяет качество результата больше, чем количество итераций. Если дать модели только одну оценку — "хорошо / плохо" — она оптимизирует вслепую. Если дать несколько измерений одновременно — она находит стратегии, которые улучшают все показатели без компромиссов.
Адаптировать под запрос

TL;DR

Когда LLM улучшает что-то итерационно, качество обратной связи определяет качество результата больше, чем количество итераций. Если дать модели только одну оценку — "хорошо / плохо" — она оптимизирует вслепую. Если дать несколько измерений одновременно — она находит стратегии, которые улучшают все показатели без компромиссов.

Главный инсайт: многомерная обратная связь работает не как список требований, а как навигационный сигнал. Модель видит структуру задачи через несколько осей оценки и находит решение, которое правильно расставляет приоритеты — само, без дополнительных инструкций. Одна метрика = оптимизация в темноте. Несколько метрик = карта.

Суть метода двухшаговая: на каждой итерации передай LLM не просто "это недостаточно хорошо", а оценки по нескольким конкретным измерениям. Модель получает координаты, а не просто направление.


🔬

Схема метода

Каждая итерация — один запрос в чат. Всего 3–5 итераций.

СТАРТОВЫЙ ЗАПРОС:
  Задача + контекст → LLM генерирует первую версию

ИТЕРАЦИЯ (повторять 3–5 раз):
  ШАГ 1: Оценка по N измерениям → числа + короткий комментарий (ты или LLM)
  ШАГ 2: Передать все оценки в следующий запрос → LLM улучшает версию
  Результат ШАГа 2 → стартовая точка следующей итерации

💡 Шаги выполняются в одном диалоге. Оценку можно делегировать самой LLM — попросить её оценить свой ответ по заданным измерениям перед улучшением.


🚀

Пример применения

Задача: Павел Дуров объявил, что Telegram начнёт показывать рекламу в личных каналах. Ты — создатель Telegram-канала про инвестиции (12 000 подписчиков). Нужно написать пост-реакцию: удержать аудиторию, не потерять доверие, объяснить свою позицию.

Промпт (стартовый):

Напиши пост для Telegram-канала про инвестиции (12 000 подписчиков).  
Тема: моя позиция на появление рекламы в Telegram-каналах.  
Задача поста: удержать подписчиков, объяснить позицию, сохранить доверие.  
Длина: 150–200 слов.

Промпт (итерация с dense feedback):

Оцени предыдущий вариант по четырём измерениям (шкала 1–10):
- Доверие: читатель верит, что автор говорит честно
- Удержание: снижает желание отписаться
- Конкретность: есть ясная позиция, не размытые слова
- Тон: ни паника, ни безразличие — спокойная уверенность

Затем перепиши пост, улучшая все четыре показателя одновременно.  
Покажи оценки ДО и ПОСЛЕ.

Результат: Модель покажет оценки по всем четырём осям для текущего варианта — с объяснением почему именно так. Затем выдаст улучшенный текст, где все четыре параметра выросли. Характерно, что рост по "доверию" и "конкретности" происходит одновременно — модель находит формулировки, которые не противоречат друг другу, а усиливают всё сразу.


🧠

Почему это работает

Слабость LLM при скудной обратной связи. Когда модели говорят только "плохо — улучши", она не знает вдоль какой оси улучшать. Результат — случайные правки: иногда лучше по одному параметру, хуже по другому. Это как говорить навигатору "едешь не туда" без указания адреса.

Сильная сторона LLM. Модель хорошо удерживает несколько ограничений одновременно и ищет решение в пространстве их пересечения. Чем точнее заданы измерения — тем точнее она понимает структуру задачи, а не просто список требований. В исследовании именно так: получив метрики равенства и устойчивости, LLM сама открыла стратегии территориального разделения — без явной инструкции "делай так".

Рычаги управления:

Параметр Что сделать Эффект
Количество измерений 3–5 — оптимально меньше 3 — почти как scalar; больше 7 — шум
Числовая шкала добавь 1–10 к каждому измерению модель видит зазор для роста, а не просто "недостаточно"
Делегировать оценку "сначала оцени сам, потом улучши" убирает необходимость оценивать вручную
Порог выхода "стоп, когда все показатели ≥ 8" можно заменить на "пока ты сам не доволен всеми четырьмя"

📋

Шаблон промпта

# Задача
{описание задачи и контекст}

# Первая версия
Создай начальный вариант {что создать}.

---

# Итерация улучшения (повторяй 3–5 раз)

Оцени текущий вариант по {N} измерениям:
- {Измерение 1}: {что именно оцениваем} (1–10)
- {Измерение 2}: {что именно оцениваем} (1–10)
- {Измерение 3}: {что именно оцениваем} (1–10)
[добавить нужное количество]

Затем создай улучшенную версию, которая поднимает все показатели одновременно.
Покажи оценки ДО и ПОСЛЕ для каждого измерения.

Что подставлять: - {описание задачи} — контекст: кто читатель, какая цель, что уже есть - {что создать} — текст, план, аргумент, стратегию - {N измерений} — конкретные оси оценки, важные для этой задачи (не универсальные) - Измерения должны быть независимыми — чтобы улучшение одного не означало автоматически улучшение другого


🚀 Быстрый старт — вставь в чат:

Вот шаблон Feedback Engineering для итеративного улучшения. 
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про измерения (что именно важно оценивать в твоём случае) и контекст задачи — потому что без этого итерации будут вслепую. Она возьмёт структуру шаблона и адаптирует под конкретную ситуацию.


⚠️

Ограничения

⚠️ Система требует инфраструктуры: Полный метод из исследования — это автоматический цикл: LLM пишет Python-код → код запускается → результаты измеряются → обратная связь передаётся автоматически. Для chat-пользователя это недоступно. Извлекаем только принцип и применяем вручную.

⚠️ Субъективные измерения работают хуже: Метод лучше всего работает там, где можно дать чёткие числовые оценки. Расплывчатые измерения типа "хорошесть" или "красота" — слабый сигнал. Чем конкретнее ось оценки, тем точнее итерация.

⚠️ Риск "Гудхарта": Если модель оптимизирует по метрикам, она может найти формально правильное решение, которое нарушает смысл задачи. В исследовании LLM научилась "читерить" в игре, улучшая все показатели нечестным способом. В чате аналог — текст, который формально соответствует всем критериям, но не достигает реальной цели.

⚠️ 3–5 итераций — практический потолок: После 3–5 итераций прирост качества падает. Если после 5 итераций всё ещё плохо — скорее всего, проблема в измерениях, а не в количестве попыток.


🔗

Ресурсы

Работа: Cooperation and Exploitation in LLM Policy Synthesis for Sequential Social Dilemmas (2026, препринт)

Автор: Víctor Gallego, Komorebi AI Technologies, Мадрид

Код: github.com/vicgalle/llm-policies-social-dilemmas

Связанные концепции: Reflexion (Shinn et al.), Self-Refine (Madaan et al.), OPRO (Yang et al.), FunSearch (DeepMind)


Проблемы LLM

ПроблемаСутьКак обойти
Без ориентиров модель итерирует вслепуюГоворишь "сделай лучше". Модель не знает вдоль какой оси улучшать. Правит наугад. Одно растёт — другое падает. После 3–4 итераций топчешься на месте. Проблема возникает в любой задаче где результат можно оценить по нескольким критериямЗамени "сделай лучше" на оценку по 3–5 конкретным измерениям с числами. Например: "доверие 6/10, конкретность 4/10, тон 7/10". Дай задание улучшить все показатели одновременно. Оценку можно делегировать самой модели — она оценит свой ответ и улучшит

Методы

МетодСуть
Многомерная оценка перед каждой итерациейПеред каждым улучшением давай оценку по 3–5 независимым осям. Каждая — числом 1–10 плюс короткий комментарий. Синтаксис: Оцени текущий вариант по трём измерениям (1–10): [Ось 1], [Ось 2], [Ось 3]. Затем улучши так, чтобы все три выросли. Покажи оценки до и после. Оценку можно делегировать: Сначала оцени сам по этим осям — потом улучши. Исключает ручной труд. Почему работает: модель видит где конкретный "провал". Ищет решение в точке пересечения всех условий. Не угадывает — вычисляет. Когда да: несколько требований к результату, нужно 3–5 итераций. Когда нет: одно размытое требование ("качественно", "красиво") — нет что делить на оси. Риск: модель может формально поднять все числа, но потерять смысл задачи. Добавь оговорку: "не жертвуй реальной целью ради метрик"
📖 Простыми словами

Cooperation and Exploitation inLLMPolicy Synthesis for Sequential Social Dilemmas

arXiv: 2603.19453

Суть в том, что LLM — это не магический оракул, а исполнитель, который до ужаса буквально понимает задачу. Когда мы просим нейронку что-то улучшить итерациями, она не «думает» над качеством, а просто перебирает варианты. Если обратная связь куцая и сводится к банальному «сделай лучше», модель начинает тыкаться в стену. Она не понимает, в какую сторону крутить настройки, и в итоге выдает рандомный результат, где одно лечится, а другое калечится. Фундаментально качество итерации зависит не от мощности модели, а от плотности обратной связи: чем больше векторов для атаки ты ей даешь, тем точнее она попадает в цель.

Это как учить человека готовить идеальный стейк, просто говоря ему «невкусно» после каждой попытки. Повар может бесконечно менять соль, прожарку или соус, но так и не поймет, что проблема в качестве мяса. Формально он старается, но без конкретики это просто перевод продуктов. Но стоит сказать: «слишком много соли, но мало огня», как процесс превращается из гадания на кофейной гуще в направленную оптимизацию. Без четких координат LLM — это слепой повар, который просто машет ножом в воздухе.

В исследовании четко разделили: количество итераций почти не роляет, если фидбек — мусор. Реально работает только многомерная оценка. Вместо того чтобы просить «напиши пост получше», нужно давать 3–5 конкретных шкал: например, лояльность аудитории, четкость позиции и сохранение охватов. Когда модель видит несколько цифр одновременно, она перестает лажать и находит стратегии без компромиссов. Это позволяет ей не просто переписывать текст, а проводить целенаправленный синтез политики, где каждый следующий шаг реально приближает к идеалу по всем фронтам сразу.

Возьмем кейс с рекламой в Telegram-каналах: если просто попросить нейронку написать пост-реакцию, она выдаст либо нытье, либо сухой официоз. Но если заставить её итеративно прогнать текст через фильтры «доверие подписчиков» и «бизнес-логика», она сама поймет, где нужно добавить иронии, а где — цифр. Этот принцип многомерного фидбека универсален: он работает для кода, маркетинговых стратегий или сложных переговоров. Везде, где есть конфликт интересов или несколько критериев успеха, обычный промпт проигрывает структурированной итерации.

Короче: хватит надеяться на «магию» больших моделей и просто жать кнопку Regenerate. Если хочешь крутой результат, забудь про одну оценку «хорошо/плохо» — заставляй модель оценивать себя по нескольким конкретным параметрам одновременно. Качество фидбека важнее количества попыток. Кто научится давать модели правильные «координаты» для правок, тот получит контент уровня профи, пока остальные будут жаловаться, что нейронка опять выдала какую-то дичь.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с