3,583 papers
arXiv:2604.07167 75 8 апр. 2026 г. FREE

Сократовский промпт: проверка аргументов через вопросы, не правки

КЛЮЧЕВАЯ СУТЬ
Каждый раз когда AI исправляет ваш текст — вы пассивно соглашаетесь. Мозг видит «звучит убедительно» и выключается. Это называется когнитивным оффлоадингом — отсюда те же логические ошибки в следующем тексте: вы не думали, вы наблюдали. Метод Critical Inker позволяет проверять чужую и собственную аргументацию так, чтобы самостоятельно находить слабые места — а не принимать чужие правки на автопилоте. Фишка: у модели есть внутренний список всех логических дыр — но она запрещена называть их напрямую. Вместо этого задаёт точечный вопрос по формуле и ждёт, пока вы сами не произнесёте проблему вслух. Когда вербализируешь ошибку сам — она оседает в памяти.
Адаптировать под запрос

TL;DR

Вместо того чтобы просить AI исправить ваш текст, попросите его сначала разобрать логическую структуру — найти тезис, аргументы и связи между ними — а потом задавать вопросы о конкретных слабых местах, а не называть ошибки напрямую. Три этапа в одном диалоге: извлечь структуру → оценить каждую логическую связь → задать сократовские вопросы по одному.

Главная находка исследования: когда AI просто исправляет — вы пассивно соглашаетесь и ничего не запоминаете. Мозг «делегирует» задачу и выключается. Именно поэтому после правки ChatGPT вы через час снова делаете те же логические ошибки — вы не думали, вы наблюдали.

Метод работает иначе: AI запрещено давать ответ, пока вы сами не назовёте проблему вслух. Это называется эффектом самообъяснения — когда человек вербализирует проблему сам, понимание становится глубже и переносится в следующий текст.


🔬

Схема метода

Три этапа, работают в одном промпте:

ЭТАП 1: Извлечь структуру
  → Главный тезис
  → Все аргументы/доказательства
  → Какой аргумент что поддерживает (граф связей)

ЭТАП 2: Оценить каждую связь отдельно
  → Для каждой пары «аргумент → тезис»: логически валидно?
  → (Результат — внутренний список проблем, не показывать пользователю)

ЭТАП 3: Задавать вопросы по формуле
  → «Ты утверждаешь [X], потому что [Y]. Как именно [Y] поддерживает [X]?»
  → Один вопрос за раз
  → Ждать пока пользователь сам назовёт проблему
  → Только тогда переходить к следующей

Всё в одном чате. Отдельные запросы не нужны.


🚀

Пример применения

Задача: Вы написали инвестиционный тизер для своего EdTech-стартапа и хотите убедиться, что аргументы держатся, прежде чем отправить его Александру Горному или на питч-сессию Сколково.

Промпт:

Выступи как сократовский тьютор по логике и аргументации.

Твоя задача — НЕ исправлять мой текст и НЕ давать готовые правки. 
Твоя задача — задавать мне вопросы, которые помогут мне самому 
найти логические проблемы.

ЭТАП 1 — СТРУКТУРА:
Прочитай мой текст и выдели:
- Главный тезис (одним предложением)
- Все аргументы и доказательства, которые его поддерживают
- Что на что опирается (коротко, списком)

Покажи мне эту структуру.

ЭТАП 2 — ОЦЕНКА (внутренний):
Для каждой связи «аргумент → тезис» проверь:
«Если предположить, что аргумент — правда, следует ли из него тезис?»
Если нет — запомни эту проблему. НЕ называй её мне.

ЭТАП 3 — ВОПРОСЫ:
Начни с одной логической проблемы.
Задай вопрос по этой формуле:
«Ты утверждаешь [тезис], потому что [аргумент]. 
Меня интересует — как именно [аргумент] поддерживает [тезис]?»

Правила для этапа 3:
— Один вопрос за раз
— Не давай ответ и не называй ошибку, пока я сам её не назову
— Когда я нашёл проблему и сформулировал её — переходи к следующей
— Только после всех проблем дай итоговый список того, что я сам нашёл

Мой текст:
[вставь тизер]

Результат:

Сначала модель покажет логическую структуру тизера — тезис и список аргументов. Потом начнёт задавать точечные вопросы по формуле о конкретных местах, где логика провисает. Не «аргументация слабая», а «ты говоришь, что рынок растёт на 40% в год, потому что вырос EdTech в пандемию — как именно пандемийный рост доказывает устойчивый тренд?» Вы сами находите дыры. Ответы записываете для себя или просите модель зафиксировать список найденных проблем в конце.


🧠

Почему это работает

Слабость LLM как инструмента правки: когда модель исправляет текст напрямую, вы получаете готовый результат и соглашаетесь с ним — не потому что поняли, а потому что звучит убедительно. Ваш мозг «сохраняет энергию» и делегирует суждение. Это называется когнитивным оффлоадингом — и именно отсюда ошибки повторяются снова при следующем тексте.

Сильная сторона LLM как структурного анализатора: модель хорошо умеет две вещи — разбирать аргументацию на части (тезис, посылки, связи) и симулировать заданную роль. Комбинация этих умений даёт точечные вопросы, а не расплывчатое «подумай о своих аргументах».

Как метод использует это: вместо того чтобы просить модель дать ответ, мы просим её держать ответ при себе и спрашивать. Это называется вербализацией — когда вы сами произносите проблему, она оседает в памяти. Плюс прогрессивное раскрытие: один вопрос за раз снижает перегрузку и помогает фокусироваться.

Рычаги управления:

  • Формула вопроса «ты утверждаешь X потому что Y — как Y поддерживает X?» — можно адаптировать под жанр: для юридических текстов добавить «какая норма это подтверждает?», для научных — «какое исследование это доказывает?»
  • Условие перехода (когда переходить к следующей проблеме) — можно заменить: «переходи только когда я предложил правку, не просто назвал проблему»
  • Этап 2 можно попросить показать — добавьте «покажи список всех найденных проблем ДО начала вопросов», тогда видите масштаб сразу
  • Этап 1 можно запускать отдельно — просто как аудит логической структуры, без Сократа

📋

Шаблон промпта

Выступи как сократовский тьютор по логике.

Твоя задача — НЕ исправлять текст, а задавать вопросы, 
которые помогут мне самому найти логические проблемы.

ЭТАП 1 — СТРУКТУРА:
Выдели из текста:
- Главный тезис
- Все аргументы/доказательства
- Какой аргумент что поддерживает

Покажи структуру мне.

ЭТАП 2 — ОЦЕНКА (внутренний, не показывай):
Для каждой связи «аргумент → тезис»:
Если предположить, что аргумент верен — следует ли из него тезис?
Если нет — запомни как проблему.

ЭТАП 3 — СОКРАТОВСКИЕ ВОПРОСЫ:
Начни с одной проблемы. Задай вопрос по формуле:
«Ты утверждаешь {тезис_или_вывод}, потому что {аргумент}. 
Как именно {аргумент} поддерживает {тезис_или_вывод}?»

Правила:
— Один вопрос за раз
— Не называй ошибку, пока я сам её не назову
— Когда я нашёл проблему — переходи к следующей
— В конце дай список всего, что я сам нашёл

Мой текст:
{текст}

Плейсхолдеры: - {текст} — ваш текст целиком: эссе, питч, статья, аргументированное письмо - {тезис_или_вывод} и {аргумент} — модель заполняет сама на основе структуры


🚀 Быстрый старт — вставь в чат:

Вот шаблон «Сократовского промпта» для проверки аргументации. 
Адаптируй под мою задачу: [опиши свой текст или задачу].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про жанр и цель текста (питч, статья, письмо?) и кто аудитория — потому что от этого зависит какой тип логических связей важно проверять и как формулировать вопросы.


⚠️

Ограничения

⚠️ Формат текста: Метод работает для аргументативных и убеждающих текстов — питчи, эссе, аналитика, статьи с тезисами. Для нарративных и творческих текстов (рассказ, описание продукта без аргументации) — не применим, нечего «проверять».

⚠️ Скорость: Этот режим намеренно медленный — это и есть смысл. Если нужно быстро причесать текст, метод не подходит. Он для ситуаций где важно качество аргументации, а не скорость.

⚠️ Слабая валидация на людях: Пилот — всего 7 человек. Качество LLM-анализа проверено на датасетах (91,2% и 87%), а вот влияние на реальное мышление людей — ещё не доказано строго. Принцип сократовского вопроса хорошо изучен в педагогике, но именно в этой связке с LLM — предварительные данные.

⚠️ Трение — цена метода: Несколько участников пилота отметили, что метод ощущается «сложным» или задаёт вопросы о том, что «уже объяснено дальше по тексту». Это нормально — но нужно быть готовым.


🔍

Как исследовали

Команда MIT Media Lab решила проверить две вещи независимо: работает ли LLM-анализ аргументации технически — и как пользователи реагируют на два разных формата обратной связи.

Техническая часть: взяли 100 эссе из датасета аргументированных текстов TU Darmstadt с разметкой от людей и 100 пар из Stanford NLI. Сравнивали как модели (Claude Sonnet 4.5, GPT-4.1, Gemini Flash и другие) справляются с извлечением структуры и оценкой логической валидности. Интересная деталь: когда пытались делать извлечение структуры и оценку валидности одним промптом — качество падало. Разбивка на отдельные задачи дала 91,2% совпадение со структурой от людей и 87% точность по валидности. Это подтверждает принцип: разные задачи — разные промпты.

Пользовательская часть: 7 человек писали аргументированное эссе на свободную тему, потом получали один из двух видов обратной связи. Участники с визуальной обратной связью ценили ясность, но жаловались на сложность восприятия всей структуры сразу. Участники в сократовском режиме отмечали, что «думали сами» — но иногда вопросы касались вещей, которые уже были объяснены в тексте. Никто не оценивал долгосрочный эффект — изменилось ли качество мышления со временем. Это честно признаётся в выводах.


💡

Адаптации и экстраполяции

🔧 Техника: разделить этапы → видеть всё сразу

Если хотите не диалог, а быструю карту проблем — уберите этап 3 или добавьте в этап 2 инструкцию «покажи все найденные проблемы списком». Это режим «визуальной обратной связи» из исследования. Быстрее, менее глубоко, но полезно как чеклист.

Для питча перед инвестором: сначала запросите «карту» (этапы 1+2), потом сами решите — по каким пунктам хотите сократовских вопросов, а по каким достаточно знать проблему.

🔧 Техника: сократовский анализ ЧУЖИХ аргументов

Тот же промпт работает для разбора чужих текстов — статей, заявлений конкурентов, медийных аргументов. Просите модель построить структуру чужой аргументации и задавать вам вопросы о слабых местах. Полезно для подготовки к дискуссии или ответа на критику.

Пример: разобрать аргументацию в тексте инвестора «почему не буду вкладывать в EdTech сейчас» — найти логические уязвимости перед переговорами.


🔗

Ресурсы

Critical Inker: Scaffolding Critical Thinking in AI-Assisted Writing Through Socratic Questioning

Авторы: Philipp Hugenroth, Valdemar Danry, Pattie Maes

MIT Media Lab, Fluid Interfaces Group, Cambridge, USA

Контакты: philhuge@media.mit.edu, vdanry@mit.edu, pattie@media.mit.edu

Смежные работы от тех же авторов: - Danry et al. (2023) — «Don't just tell me, ask me: AI systems that frame explanations as questions improve human logical discernment» (CHI 2023) — основа сократовского принципа - Rani et al. (2025) — «Dialogues with AI Reduce Beliefs in Misinformation but Build No Lasting Discernment Skills» — о временности эффекта диалога без принудительной вербализации


📋 Дайджест исследования

Ключевая суть

Каждый раз когда AI исправляет ваш текст — вы пассивно соглашаетесь. Мозг видит «звучит убедительно» и выключается. Это называется когнитивным оффлоадингом — отсюда те же логические ошибки в следующем тексте: вы не думали, вы наблюдали. Метод Critical Inker позволяет проверять чужую и собственную аргументацию так, чтобы самостоятельно находить слабые места — а не принимать чужие правки на автопилоте. Фишка: у модели есть внутренний список всех логических дыр — но она запрещена называть их напрямую. Вместо этого задаёт точечный вопрос по формуле и ждёт, пока вы сами не произнесёте проблему вслух. Когда вербализируешь ошибку сам — она оседает в памяти.

Принцип работы

Три этапа в одном промпте, не требует отдельных запросов. Этап 1 — структура: модель выделяет тезис, все аргументы и граф связей «что на что опирается» — и показывает вам. Этап 2 — оценка: для каждой пары «аргумент → тезис» проверяет: если аргумент верен, следует ли из него тезис? Список проблем — внутренний, вам не показывают. Этап 3 — один вопрос за раз по формуле: «Ты утверждаешь X, потому что Y — как именно Y поддерживает X?» Переход к следующей проблеме только после того, как вы сами назвали эту. В конце — список всего найденного вами, не моделью.

Почему работает

Принцип самообъяснения хорошо изучен в педагогике: когда человек сам произносит проблему — понимание становится глубже и переносится в следующую задачу. Именно это блокирует обычная правка от AI — вы получаете готовый результат и соглашаетесь, не думая. Модель хорошо умеет две вещи: разбирать аргументацию на части и держать заданную роль. Здесь эти умения объединены: AI выступает как структурный анализатор и как тьютор, которому запрещено раскрывать ответ. Прогрессивное раскрытие — один вопрос за раз — снижает перегрузку: вы думаете о конкретной логической связи, а не о тексте в целом. Честность про цифры: точность анализа аргументации на датасетах — 91,2% и 87%. Но влияние на реальное мышление людей проверено на 7 участниках. Педагогический принцип надёжный, эта конкретная связка с AI — предварительные данные.

Когда применять

Аргументативные тексты с тезисом и доказательствами: инвестиционные питчи, эссе, аналитические статьи, убеждающие письма, научные работы. Особенно подходит перед отправкой инвестору, публикацией или защитой — когда важна точность логики, а не скорость. НЕ подходит для: нарративных и творческих текстов без аргументации (рассказ, описание продукта), ситуаций когда нужно быстро причесать текст. Метод намеренно медленный — это и есть смысл.

Мини-рецепт

1. Задай роль: «Выступи как сократовский тьютор по логике. Твоя задача — НЕ исправлять текст, а задавать вопросы, которые помогут мне самому найти логические проблемы.»

2. Опиши три этапа: структура (показать мне) → оценка связей (внутренняя, не показывать) → вопросы по формуле «Ты утверждаешь X, потому что Y — как именно Y поддерживает X?»

3. Добавь правила для третьего этапа: один вопрос за раз, не называть ошибку пока пользователь сам её не назовёт, в конце — список всего найденного пользователем.

4. Вставь текст и отвечай на вопросы — не спешите, это и есть работа.

5. Настрой под жанр если нужно: для юридических текстов добавь «какая норма это подтверждает?», для научных — «какое исследование доказывает Y?»

Примеры

[ПЛОХО] : Проверь аргументы в питче и исправь слабые места
[ХОРОШО] : Выступи как сократовский тьютор. НЕ исправляй текст. Работаем в три этапа. ЭТАП 1 — СТРУКТУРА: выдели главный тезис, все аргументы и что на что опирается. Покажи мне. ЭТАП 2 — ОЦЕНКА (внутренняя): для каждой связи «аргумент → тезис» проверь: если аргумент верен — следует ли из него тезис? Запомни проблемы. Мне не показывай. ЭТАП 3 — ВОПРОСЫ: начни с одной проблемы. Формула: «Ты утверждаешь [X], потому что [Y]. Как именно [Y] поддерживает [X]?» Один вопрос за раз. Не называй ошибку, пока я сам её не назову. Когда назвал — переходи к следующей. В конце дай список всего что я нашёл сам. Мой текст: [питч]
Источник: Critical Inker: Scaffolding Critical Thinking in AI-Assisted Writing Through Socratic Questioning
ArXiv ID: 2604.07167 | Сгенерировано: 2026-04-09 04:23

Проблемы LLM

ПроблемаСутьКак обойти
AI правит текст — ты соглашаешься, не думаяПросишь исправить. Получаешь улучшенный вариант. Читаешь — звучит убедительно. Принимаешь. Но ты не понял почему было плохо. Через час снова пишешь так же. Это работает для любого задания типа "проверь / улучши / исправь"Запрети модели давать правки. Попроси задавать вопросы о слабых местах. Сам называешь проблему — сам запоминаешь

Методы

МетодСуть
Скрытый анализ + вопрос вместо ответаТри шага в одном запросе. Шаг 1: Попроси выделить тезис, все аргументы и связи между ними. Показать тебе. Шаг 2: Попроси проверить каждую связь "аргумент тезис" — но не показывать результат, только запомнить слабые места. Шаг 3: Попроси задавать вопросы по формуле: «Ты утверждаешь {вывод}, потому что {аргумент}. Как именно {аргумент} поддерживает {вывод}?» — по одному вопросу. Не переходить к следующему, пока сам не назвал проблему. Почему работает: модель хорошо разбирает логические структуры. Скрытый этап даёт ей список проблем. Вопрос вместо ответа заставляет тебя думать. Сам назвал — сам запомнил. Когда применять: аргументативные тексты — питч, эссе, аналитика, письмо с доводами. Не подходит: художественный текст, описание без тезисов, ситуации где нужна быстрая правка
📖 Простыми словами

Critical Inker: Scaffolding Critical Thinking inAI-Assisted Writing Through Socratic Questioning

arXiv: 2604.07167

Суть в том, что когда ты просишь нейронку «поправь мой текст», ты совершаешь когнитивный суицид. Модель выдает прилизанный результат, ты радостно киваешь и ничему не учишься. Метод Critical Inker ломает эту привычку: вместо прямой правки AI заставляют работать как вредного Сократа. Сначала модель вытаскивает из твоего текста «скелет» — тезисы и аргументы, а потом начинает методично бить по слабым местам, задавая вопросы, а не давая готовые ответы.

Это как если бы ты пришел в спортзал, а тренер не стал поднимать за тебя штангу, а начал спрашивать: «А почему у тебя локти гуляют?» или «Ты уверен, что спина сейчас выдержит?». Ты бесишься, но в итоге напрягаешь мозг и реально понимаешь, где накосячил. В этом и фишка: ты не просто получаешь текст получше, ты прокачиваешь навык мыслить структурно, потому что AI не дает тебе «списать» готовое решение.

Работает это по жесткой схеме из трех шагов: извлечение структуры, оценка связей и сократовские вопросы. Сначала AI говорит: «Вот твои три аргумента», потом шепотом (про себя) оценивает, что второй аргумент — полная чушь, и в итоге выдает тебе вопрос: «А как именно твой продукт решит проблему, если рынок упадет вдвое?». Ты вынужден додумывать сам, и именно в этот момент происходит магия — ты видишь дыры в своей логике, которые раньше маскировал красивыми словами.

Метод тестировали на эссе, но принцип универсален. Это идеально подходит для инвестиционных тизеров, стратегий или даже сложных писем клиентам. Везде, где нужно не просто «красиво написать», а выстоять под обстрелом критики, этот подход выигрывает. Ты используешь LLM не как корректора, а как спарринг-партнера, который готовит тебя к реальному бою с инвестором или боссом.

Главный вывод: хватит использовать ChatGPT как продвинутый Т9. Если хочешь, чтобы твой текст реально работал, заставляй модель пытать тебя вопросами. Это избавляет от когнитивного оффлоадинга — когда мозг ленится и перекладывает ответственность на алгоритм. Либо ты тренируешь мышление об AI, либо ты просто копипастишь средненький контент, пока твои навыки атрофируются.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с