3,583 papers
arXiv:2511.17913 56 22 нояб. 2025 г. FREE

Управление токенами для переранжирования в последовательных рекомендациях с помощью LLM

КЛЮЧЕВАЯ СУТЬ
LLM игнорирует до 40-60% сложных ограничений, описанных обычным текстом («недорогой товар от Apple для подростков») — модель теряется в многословных инструкциях и приоритизирует не то, что важно. Метод COREC позволяет управлять выбором модели через строгие критерии — цена, бренд, категория — с точностью до конкретного атрибута. Вместо размытых описаний используются формализованные «псевдо-токены» типа [Бюджет: Средний], [Интересы: Техника, Корабли] — модель воспринимает их как машиночитаемые команды, а не как часть повествования. Результат: 95% соблюдение заданных ограничений против 40-55% при обычных инструкциях.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование предлагает метод COREC, который позволяет пользователю точно управлять результатами рекомендаций LLM (например, при выборе товаров). Вместо общих фраз в промпте используются специальные "контрольные токены" (например, <brand>Disney, <price>0-10), которые встраиваются в данные и которым модель специально обучается следовать. Это позволяет LLM лучше соблюдать заданные пользователем строгие критерии (цена, бренд, категория), чем при использовании обычных текстовых инструкций.

Ключевой результат: Дообучение LLM на распознавание специальных структурированных токенов-ограничений дает значительно более точный и предсказуемый контроль над результатами, чем простое описание этих ограничений в промпте.


🔬

Объяснение всей сути метода:

Представьте, что вы просите ассистента подобрать вам фильм. Вы можете сказать: "Найди мне что-нибудь веселое, не очень старое и чтобы для всей семьи". Ассистент будет интерпретировать "веселое", "не очень старое" по-своему и может ошибиться.

Метод COREC предлагает другой подход. Вместо расплывчатых инструкций вы даете ассистенту набор карточек с фильмами и набор специальных стикеров: [ЖАНР: Комедия], [ГОД: >2010], [РЕЙТИНГ: Семейный]. Ваша задача для ассистента звучит так: "Вот карточки, выбери ту, на которую можно наклеить все эти стикеры".

"Секрет" в том, что этого ассистента (LLM) предварительно натренировали обращать особое внимание именно на такие стикеры-токены. Они для него — не просто слова, а четкие, формализованные команды.

Таким образом, метод работает в два этапа: 1. Формализация запроса: Пользовательские требования (например, "дешевый товар от Apple") превращаются в стандартизированные "контрольные токены" (<price>low, <brand>Apple). 2. Управляемая генерация: Эти токены вставляются прямо в описание товаров и в сам промпт. LLM, специально дообученная на таких данных, приоритизирует те варианты, которые содержат максимальное количество совпадений с заданными контрольными токенами.

Это позволяет добиться тонкого и предсказуемого управления результатом, решая проблему, когда LLM игнорирует часть ваших условий.


📌

Анализ практической применимости:

  • Прямая применимость: Низкая. Пользователь не может дообучить публичные LLM (ChatGPT, Claude). Поэтому создать и использовать настоящие "контрольные токены" невозможно.

  • Концептуальная ценность: Высокая. Исследование дает пользователю мощную ментальную модель: для сложных задач с четкими правилами структура важнее прозы. LLM лучше следует инструкциям, если они выделены, формализованы и однозначны. Вместо того чтобы "растворять" ограничения в тексте, их нужно явно декларировать.

  • Потенциал для адаптации: Очень высокий. Хотя мы не можем создавать новые токены, мы можем имитировать их структуру с помощью разметки, которую LLM хорошо понимает (XML-теги, Markdown, JSON).

    Механизм адаптации: Пользователь может в начале промпта определить свой собственный "язык" ограничений и затем использовать его. Например, определить, что все ограничения будут заключаться в теги <constraint>...</constraint>, а затем перечислить их. Модель, видя эту структуру, с большей вероятностью будет рассматривать ее как набор строгих правил, а не как часть описательного текста.


🚀

Практически пример применения:

Вот промпт для планирования путешествия, который адаптирует идею "контрольных токенов" для обычного пользователя.

Ты — опытный турагент, специализирующийся на семейных поездках. Твоя задача — составить подробный и реалистичный план 3-дневной поездки в Санкт-Петербург для семьи с двумя детьми.

**# Основная задача**
Создай пошаговый маршрут на 3 полных дня. Для каждого дня укажи:
- Утренние, дневные и вечерние мероприятия.
- Рекомендации по питанию (кафе/рестораны с указанием средней ценовой категории).
- Примерное время на каждое мероприятие и логистику между ними.

**# Семья**
- Взрослые: 2 человека.
- Дети: мальчик 14 лет, девочка 9 лет.

**# Ключевые ограничения (Контрольные токены)**
Я буду использовать формат `[Параметр: Значение]` для обозначения строгих правил, которым ты должен следовать. Это самые важные условия.

*   `[Бюджет: Средний]` (Избегай люксовых ресторанов и самых дорогих билетов, но и не ищи самые дешевые хостелы).
*   `[Интересы_Мальчика_14: Техника, Корабли, История]`
*   `[Интересы_Девочки_9: Животные, Творчество, Сладости]`
*   `[Общий_Темп: Неспешный]` (Не более 2-3 крупных активностей в день, чтобы избежать усталости).
*   `[Исключить: Художественные галереи с классической живописью]` (Например, основной корпус Эрмитажа или Русский музей).

**# Формат вывода**
Представь результат в виде четкого плана с заголовками "День 1", "День 2", "День 3".
🧠

Почему это работает:

Этот промпт работает за счет имитации "контрольных токенов" из исследования, используя понятную для LLM структуру.

  1. Явное декларирование правил: Секция # Ключевые ограничения (Контрольные токены) четко сигнализирует модели, что следующий блок — это не просто пожелания, а строгие правила игры.
  2. Структурированные "псевдо-токены": Формат [Параметр: Значение] (например, [Бюджет: Средний]) легко парсится моделью. Он выделяет ограничение из общего текста, делая его заметным и однозначным. Модель воспринимает это как "переменную", которую нужно учесть, а не как часть повествования.
  3. Снижение двусмысленности: Вместо "детям нравится разное" мы даем конкретные теги интересов: [Интересы_Мальчика_14: Техника, Корабли]. Это направляет модель на поиск конкретных мест (например, ледокол "Красин", Военно-морской музей), а не на общие "детские" развлечения.
  4. Инструкция по применению: Фраза "Я буду использовать формат... для обозначения строгих правил" является мета-инструкцией, которая учит модель в рамках данного запроса, как интерпретировать вашу кастомную разметку.

📌

Другой пример практического применения

Промпт для генерации идей постов для социальных сетей.

Ты — креативный SMM-менеджер для кофейни "Зерно". Твоя задача — придумать 3 варианта поста для Instagram о новом сезонном напитке.

**# Основная задача**
Напиши 3 уникальных текста для поста. Каждый текст должен включать:
- Цепляющий заголовок.
- Основное описание (2-3 предложения).
- Призыв к действию.
- 3-5 релевантных хэштегов.

**# Параметры поста (Контрольные токены)**
Используй эти параметры как обязательные для всех трех вариантов.

*   `[Продукт: Тыквенно-пряный латте]`
*   `[Целевая_Аудитория: Студенты, фрилансеры]`
*   `[Ключевое_Сообщение: Уют, осеннее настроение, заряд бодрости для учебы/работы]`
*   `[Стиль_Текста: Дружелюбный, неформальный]`
*   `[Обязательно_Упомянуть: Натуральное тыквенное пюре, не сироп]`

**# Формат вывода**
Предоставь ответ в виде:
**Вариант 1**
[Текст поста]
**Вариант 2**
[Текст поста]
**Вариант 3**
[Текст поста]
🧠

Объяснение механизма почему этот пример работает.

Этот промпт эффективен, потому что он превращает творческую задачу в структурированную, давая пользователю рычаги управления.

  1. Декомпозиция задачи: Промпт четко разделяет, что нужно сделать (написать 3 поста) и из чего их нужно "собрать" (параметры-токены).
  2. Контроль над содержанием: "Псевдо-токены" вроде [Ключевое_Сообщение: Уют, осеннее настроение] работают как смысловые якоря. Они заставляют модель сфокусироваться на конкретных эмоциях и темах, а не генерировать общий текст про "вкусный кофе".
  3. Точное УТП: Параметр [Обязательно_Упомянуть: Натуральное тыквенное пюре, не сироп] — это прямое отражение идеи COREC. Это критически важный атрибут, который в обычном тексте мог бы потеряться. Выделение его в отдельный "токен" гарантирует, что модель включит это уникальное торговое предложение в каждый вариант поста.
  4. Управление тональностью: Токен [Стиль_Текста: Дружелюбный, неформальный] задает четкие рамки для тональности, что работает надежнее, чем просьба "напиши весело".

Таким образом, пользователь не просто просит результат, а предоставляет LLM "техническое задание" в удобном для нее машиночитаемом формате, что кардинально повышает управляемость и качество генерации.

📌

Оценка полезности: 70

📌

Основные критерии оценки

  • A. Релевантность техникам промптинга: Низкая прямая релевантность. Метод "контрольных токенов" требует дообучения (fine-tuning) модели и изменения ее словаря, что недоступно обычному пользователю. Однако концептуально он очень релевантен, так как доказывает эффективность структурированных сигналов в промпте.
  • B. Улучшение качества диалоговых ответов: Исследование сфокусировано на улучшении качества рекомендательных списков, а не на диалоговых ответах в общем смысле. Тем не менее, оно улучшает точность и релевантность специфического вида ответов LLM.
  • C. Прямая практическая применимость: Очень низкая. Пользователь не может дообучить ChatGPT или Claude, чтобы они распознавали специальные токены типа <price>0-10. Метод нельзя применить "в лоб".
  • D. Концептуальная ценность: Очень высокая. Исследование наглядно демонстрирует, что для управления поведением LLM структурированные и однозначные маркеры (токены) работают значительно лучше, чем инструкции на естественном языке. Оно дает пользователю ключевую интуицию: "Чтобы модель точно следовала правилам, их нужно четко отделить от остального текста и представить в виде формализованных тегов".
  • E. Новая полезная практика (кластер): Работа попадает в кластер №3 (Оптимизация структуры промптов) и концептуально в №1 (Техники формулирования промптов). Она предлагает новый способ структурирования входных данных для точного управления выводом.
  • Чек-лист практичности (+15 баллов): Да, работа показывает, как структурировать сложные запросы с множеством атрибутов и раскрывает неочевидную особенность LLM (неэффективность простых инструкций для сложных ограничений). Это дает +15 баллов к базовой оценке.
📌

Цифровая оценка полезности

Изначально исследование заслуживает оценки в диапазоне 30-64 ("Любопытно, но не очень практично"), так как его основной метод (fine-tuning) недоступен широкой аудитории. Базовая оценка — 55.

Однако его концептуальная ценность огромна. Оно научно доказывает идею, которую опытные промпт-инженеры используют интуитивно: структурированные данные и "псевдо-теги" в промпте работают лучше, чем размытые описания. Это знание напрямую влияет на то, как пользователь будет формулировать сложные запросы. За высокую концептуальную ценность и возможность адаптации подхода добавляем 15 баллов по чек-листу.

Итоговая оценка: 70.

Контраргументы: * Почему оценка могла быть выше? Концепция "контрольных токенов" легко адаптируется для обычного пользователя через использование XML-тегов или JSON-подобных структур в промпте. Например, вместо <price>0-10 можно написать <constraint name="price" value="0-10"/>. Обучив модель следовать этой структуре в рамках одного промпта (few-shot), можно добиться похожего эффекта. Поэтому косвенная польза очень высока. * Почему оценка могла быть ниже? Потому что исследование сфокусировано на узкой задаче — переранжировании товаров в рекомендательной системе. Его выводы могут быть не так применимы к творческим задачам, генерации длинных текстов или ведению диалога. Прямого переноса "как есть" нет, что снижает немедленную пользу.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с