3,583 papers
arXiv:2604.02176 74 2 апр. 2026 г. FREE

Закон Адама (TFL): высокочастотные формулировки делают LLM точнее

КЛЮЧЕВАЯ СУТЬ
Один и тот же вопрос — разный ответ. Не потому что смысл другой — просто слова другие. Метод TFL (Закон текстовой частотности) позволяет вытащить из модели более точный и связный ответ, переключившись на обычные, распространённые формулировки вместо делового жаргона. Фишка: не переписывай вопрос сам — попроси модель сгенерировать 3-5 более простых версий и выбрать самую обыденную. Модель идёт по хорошо накатанным рельсамцепочка рассуждений ломается реже.
Адаптировать под запрос

TL;DR

LLM отвечает лучше, когда промпт написан обычными, распространёнными словами — даже если смысл вопроса не меняется. Одна и та же задача, сформулированная через редкие или необычные выражения, даёт заметно хуже результат. Это назвали «Законом текстовой частотности» (Textual Frequency Law, TFL).

Слабое место LLM: модель обучалась на огромных текстах из интернета, где одни слова встречаются миллионы раз, другие — единицы. Когда твой вопрос написан редкими словосочетаниями, модель генерирует ответ по менее надёжному паттерну — как если бы ты вспоминал правило, которое выучил один раз, а не сотни. Результат нестабильный: правильный ответ по той же задаче в «редкой» формулировке модель находит реже.

Метод решает это в два шага: сначала перефразировать запрос в более распространённые формулировки, потом отвечать. Можно сделать это вручную или попросить саму модель сгенерировать несколько парафразов и выбрать самый «обычный».


🔬

Схема метода

ШАГ 1: Перефразировать запрос
  → попросить LLM сгенерировать 3-5 версий вопроса 
    разными словами, но с тем же смыслом
  → выбрать ту, что звучит наиболее «обыденно и просто»

ШАГ 2: Ответить на перефразированный вопрос
  → задать выбранную версию как итоговый промпт
  → получить ответ

Оба шага можно объединить в один промпт — LLM сделает всё внутри одного запроса.

🚀

Пример применения

Задача: Проверить бизнес-идею — доставка еды из ресторанов только с рейтингом 4.8+ на Яндекс.Картах. Нужен честный разбор слабых мест.

Промпт:

У меня есть концепция: сервис доставки еды, который агрегирует только рестораны 
с рейтингом 4.8 и выше на Яндекс.Картах. Позиционирование — «только проверенное».

Прежде чем отвечать, сделай следующее:
1. Перепиши мой вопрос тремя разными способами — используй обычные, 
   повседневные слова, которые встречаются в обычных разговорах и статьях.
2. Выбери из трёх вариантов тот, что звучит наиболее естественно 
   и привычно для русского читателя.
3. Ответь именно на эту выбранную версию вопроса.

Меня интересует: какие главные слабые места у этой идеи? Что может пойти не так?

Результат: Модель покажет три переформулировки вопроса, укажет выбранную версию с объяснением. Затем ответит на неё — разбор будет более конкретным и связным, чем при прямом вопросе, особенно если оригинальный запрос содержал деловой жаргон или необычные конструкции.


🧠

Почему это работает

LLM не «понимает» слова — она предсказывает токены по паттернам из обучения. Слово «агрегировать» встречается в тренировочных текстах реже, чем «собирать». Слово «концепция» — реже, чем «идея». Каждый редкий токен — это шаг по менее истоптанной дорожке. Ошибок становится больше.

Модель лучше всего работает там, где у неё больше всего примеров из обучения. Частые слова и обороты — это хорошо накатанные рельсы. Рассуждение идёт плавнее, цепочка логики меньше «соскальзывает».

Метод использует саму модель как инструмент перефразирования — попросить LLM переформулировать запрос попроще — это сдвиг к более надёжной зоне. Можно контролировать результат: чем больше парафразов попросишь, тем больше вариантов для выбора.

Рычаги управления: - Количество вариантов (3 → 5 → 10) — больше вариантов, выше шанс найти оптимальную формулировку - Критерий выбора — вместо "наиболее обычный" можно написать "наиболее похожий на популярную статью в Т—Ж" — это конкретизирует целевой стиль - Автовыбор vs. ручной — можно попросить модель выбрать самой, или выбирать вручную из списка - Итерация — взять выбранный вариант и прогнать ещё один круг перефразирования для сложных задач


📋

Шаблон промпта

Прежде чем отвечать на мой вопрос, выполни три шага:

1. Перефразируй мой вопрос {число} разными способами. 
   В каждом варианте используй простые, повседневные слова — 
   те, что чаще встречаются в обычных текстах и разговорах.

2. Выбери из вариантов тот, что звучит наиболее естественно 
   и привычно. Укажи, почему выбрал именно его.

3. Ответь на этот выбранный вариант.

Мой вопрос: {вопрос}

Плейсхолдеры: - {число} — сколько парафразов генерировать: 3 для простых задач, 5-7 для сложных - {вопрос} — твой исходный запрос как есть, без правок

🚀 Быстрый старт — вставь в чат:

Вот шаблон метода TFL. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про саму задачу и желаемый стиль ответа — потому что метод перефразирования работает лучше, когда есть ориентир для «правильного» стиля (деловой, разговорный, журналистский и т.д.). Она возьмёт структуру шаблона и подберёт формулировки под твой контекст.


⚠️

Ограничения

⚠️ Семантический дрейф: При перефразировании смысл может незаметно сдвинуться. В исследовании треть пар отбраковали живые аннотаторы именно по этой причине. Если задача точная (юридический текст, технические условия) — проверяй, не потерялось ли ключевое условие при перефразировании.

⚠️ Работает для сложных задач: На простых вопросах (столица страны, базовое определение) разница незначительна. Эффект ярче всего проявляется там, где модели нужно строить цепочку рассуждений — математика, анализ, доводы.

⚠️ Протестировано на английском: Эксперименты проводились на английских промптах. Для русского принцип должен работать аналогично (модели обучены на данных с похожим распределением частотности), но эффект может быть менее выраженным.

⚠️ TFD и CTFT — не для чата: Два из трёх компонентов фреймворка (дистилляция частотности и дообучение) требуют доступа к весам модели и запуска обучения. В обычном чате недоступны.


🔍

Как исследовали

Команда собрала парный датасет TFPD: взяли 1319 задач из GSM8K (математические задачи) и 1012 фраз из FLORES-200 (перевод), попросили GPT-4o-mini сгенерировать по 20 парафразов каждого предложения, а потом три живых аннотатора с лингвистическим образованием проверили: одинаковый ли смысл сохранился. Прошли проверку ~56% пар для математики и ~52% для перевода — остальные отбраковали из-за семантического дрейфа. Из каждой прошедшей пары взяли самую «редкую» и самую «частотную» версию.

Затем прогнали оба варианта через DeepSeek-V3, GPT-4o-mini и LLaMA-3.3-70B. Результат оказался неожиданно чистым: высокочастотная версия выигрывала во всех трёх моделях без исключений. Интересная деталь — когда модель правильно решала задачу в «редкой» формулировке, она всегда решала её и в «частотной». Обратное неверно: часть задач, проваленных в «редкой» версии, успешно решалась в «частотной». То есть перефразирование добавляло решённые задачи, не ломая уже решённые.

На переводе проверили 100 языков, включая редкие — улучшение держалось на 99 из 100 языковых пар по метрике BLEU.


💡

Адаптации и экстраполяции

🔧 Техника: Мета-промпт «упрости перед ответом»

Если не хочешь явно просить несколько вариантов — добавь одну строку в начало любого промпта:

Сначала перепиши мой запрос простыми, обычными словами. 
Потом ответь на переписанную версию.

[твой вопрос]

Это быстрее и работает для большинства задач, где оригинальный запрос написан канцелярским или жаргонным языком.


🔧 Техника: Частотность как фильтр для кандидатов

Если LLM генерирует несколько вариантов ответа (например, несколько вариантов заголовка, оффера или формулировки) — попроси выбрать тот, «который чаще всего встречается в обычной речи». Это способ применить принцип TFL к выходу модели, а не только к входу.

Предложи 5 вариантов заголовка для {задача}.
Потом выбери из них тот, слова которого наиболее часто встречаются 
в обычных статьях и разговорах — без жаргона и редких оборотов.
Объясни свой выбор.

🔗

Ресурсы

Adam's Law: Textual Frequency Law on Large Language Models Hongyuan Adam Lu, Z.L., Victor Wei, Zefan Zhang, Zhao Hong, Qiqi Xiang (FaceMind Corporation), Bowen Cao, Wai Lam (The Chinese University of Hong Kong) GitHub: github.com/HongyuanLuke/frequencylaw Инструмент частотности слов: github.com/rspeer/wordfreq


📋 Дайджест исследования

Ключевая суть

Один и тот же вопрос — разный ответ. Не потому что смысл другой — просто слова другие. Метод TFL (Закон текстовой частотности) позволяет вытащить из модели более точный и связный ответ, переключившись на обычные, распространённые формулировки вместо делового жаргона. Фишка: не переписывай вопрос сам — попроси модель сгенерировать 3-5 более простых версий и выбрать самую обыденную. Модель идёт по хорошо накатанным рельсамцепочка рассуждений ломается реже.

Принцип работы

LLM обучалась на текстах из интернета, где слова встречаются с разной частотой. «Агрегировать» — редкий путь. «Собирать» — хорошо истоптанная дорога. Промпт с редкими словами — это рассуждение по менее надёжным паттернам. Чем длиннее цепочка — тем выше шанс что она где-то соскользнёт. Переформулировка — не косметика, а переезд на более уверенный маршрут внутри модели. Схема простая: сначала перефраз → выбор самого обыденного варианта → ответ на него.

Почему работает

LLM не понимает слова — она предсказывает следующий токен по паттернам из обучения. «Концепция» встречалась в тренировочных текстах реже, чем «идея». «Осуществляет» — реже, чем «делает». Каждое редкое слово — крошечная точка нестабильности. На простом вопросе (столица страны) это незаметно. На сложных задачах с длинной цепочкой рассуждений — анализ бизнес-идеи, математика, критика аргументов — ошибки накапливаются и ответ плывёт. Именно поэтому эффект ярче всего проявляется там, где модели нужно думать, а не просто вспоминать.

Когда применять

Сложный анализ, оценка идей, многошаговые задачи — особенно когда промпт написан деловым языком, профессиональным жаргоном или терминами из узкой области. Юридический текст, технический бриф, маркетинговые формулировки — всё это кандидаты на перефразирование. Чем длиннее нужная цепочка рассуждений — тем ощутимее выигрыш. НЕ подходит для: простых фактических вопросов (даты, определения, столицы) и уточнений в уже начатом диалоге — там разница незначительна. И да, метод тестировался на английском — для русского принцип должен работать аналогично, но эффект может быть слабее.

Мини-рецепт

1. Задай перефраз: попроси модель переписать твой вопрос 3-5 простыми способами — словами из обычных разговоров и статей, без жаргона.
2. Выбери самый обыденный: попроси модель выбрать вариант, который звучит наиболее естественно. Или выбери сам — ориентируйся на «так пишут в обычной статье, не в деловом письме».
3. Ответь на выбранную версию: задай её как итоговый запрос.

Всё три шага — один промпт. Шаблон: Прежде чем отвечать, перефразируй мой вопрос {число} простыми способами — используй повседневные слова. Выбери самый естественный вариант и объясни почему. Ответь на него. Мой вопрос: {вопрос}

Дополнительный рычаг: вместо «самый обыденный» напиши «похожий на статью в Тинькофф Журнале» — это конкретизирует целевой стиль и перефраз будет точнее.

Примеры

[ПЛОХО] : Осуществи критический анализ концепции агрегирования ресторанных заведений с минимальным рейтинговым порогом 4.8 на платформе Яндекс.Карты с позиций конкурентоспособности
[ХОРОШО] : Прежде чем отвечать, перепиши мой вопрос тремя способами — используй простые, повседневные слова. Выбери самый естественный вариант и скажи почему. Потом ответь именно на него. Мой вопрос: есть идея — доставка еды только из ресторанов с рейтингом 4.8 и выше на Яндекс.Картах. Позиционирование — «только проверенное место». Какие главные слабые места у этой идеи?
Источник: Adam's Law: Textual Frequency Law on Large Language Models
ArXiv ID: 2604.02176 | Сгенерировано: 2026-04-03 04:34

Проблемы LLM

ПроблемаСутьКак обойти
Редкие слова в запросе снижают качество ответаПишешь запрос деловым жаргоном или необычными оборотами. Модель отвечает хуже — не потому что не понимает смысл, а потому что редкие слова = мало примеров в обучении = ненадёжный паттерн. Смысл вопроса тот же. Качество ответа — ниже. Эффект сильнее там где нужна цепочка рассуждений: анализ, математика, аргументацияПопроси модель сначала переформулировать твой вопрос простыми словами. Потом пусть ответит на переформулированную версию. Два шага можно упаковать в один промпт

Методы

МетодСуть
Самоперефразирование перед ответом — надёжнее на сложных задачахВставь в начало промпта три шага: 1. Перефразируй мой вопрос {число} способами — простыми, повседневными словами. 2. Выбери наиболее естественный вариант. 3. Ответь на него. Модель сдвигается к более частотным словам — туда где у неё больше обучающих примеров. Рассуждение идёт плавнее. Рычаги: больше вариантов (3510) = выше шанс найти лучшую формулировку. Вместо "наиболее обычный" пиши "похожий на статью в [конкретное издание]" — задаёт стиль точнее. Когда работает: сложные задачи с развёрнутым ответом. Когда без разницы: простые факты, короткие ответы. Осторожно: при перефразировании смысл может незаметно сдвинуться. Если задача точная — проверяй, не потерялось ли ключевое условие
📖 Простыми словами

Adam's Law: Textual Frequency Law onLargeLanguageModels

arXiv: 2604.02176

Нейросети не «понимают» смысл твоих слов так, как это делает человек — они просто предсказывают следующий кусок текста, опираясь на статистику из обучения. Закон Адама или Textual Frequency Law доказывает: интеллект модели напрямую зависит от того, насколько «заезженные» слова ты используешь. Если ты упакуешь сложную задачу в простые, народные выражения, модель выдаст максимум своих возможностей. Но стоит тебе включить «умника» и насыпать редких терминов, как нейронка начинает тупить, хотя суть вопроса осталась прежней.

Это как пытаться объяснить дорогу иностранцу, который учил язык по сериалам. Если ты скажешь: «иди прямо до аптеки», он поймет. Если завернешь: «проследуйте в азимутальном направлении до фармацевтического учреждения», он зависнет. Формально ты прав, но для его мозга это «непротоптанная дорожка». Нейросеть работает так же: редкие слова для неё — это белый шум, на котором она почти не тренировалась, поэтому и результат получается кривым.

Суть метода проста: частотность слов решает всё. Исследователи доказали, что замена слова «агрегировать» на «собирать», а «концепция» на «идея» магическим образом повышает качество ответа. Модель лажает не потому, что задача сложная, а потому что ты заставил её работать с редкими токенами. Чем чаще слово встречалось в интернете, тем больше связей и логических цепочек вокруг него выстроила модель во время обучения.

Этот принцип универсален и применим везде: от написания кода до составления бизнес-планов. Если ты просишь нейронку разобрать идею доставки еды, не пиши про «дифференциацию рыночного предложения». Пиши про то, «чем мы лучше конкурентов». Простой язык — это чит-код, который заставляет модель использовать свои самые сильные и проверенные нейронные связи вместо того, чтобы гадать на кофейной гуще редких терминов.

Короче: хочешь умный ответ — пиши как для пятиклассника. Закон текстовой частотности — это не про деградацию, а про эффективное использование архитектуры LLM. Перестань умничать в промптах, используй базовый лексикон, и ты увидишь, что модель внезапно «поумнела». Кто продолжает использовать канцелярит и редкие словечки, тот просто добровольно срезает точность нейронки в угоду собственному эго.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с