TL;DR
Вместо того чтобы просить AI исправить ваш текст, попросите его сначала разобрать логическую структуру — найти тезис, аргументы и связи между ними — а потом задавать вопросы о конкретных слабых местах, а не называть ошибки напрямую. Три этапа в одном диалоге: извлечь структуру → оценить каждую логическую связь → задать сократовские вопросы по одному.
Главная находка исследования: когда AI просто исправляет — вы пассивно соглашаетесь и ничего не запоминаете. Мозг «делегирует» задачу и выключается. Именно поэтому после правки ChatGPT вы через час снова делаете те же логические ошибки — вы не думали, вы наблюдали.
Метод работает иначе: AI запрещено давать ответ, пока вы сами не назовёте проблему вслух. Это называется эффектом самообъяснения — когда человек вербализирует проблему сам, понимание становится глубже и переносится в следующий текст.
Схема метода
Три этапа, работают в одном промпте:
ЭТАП 1: Извлечь структуру
→ Главный тезис
→ Все аргументы/доказательства
→ Какой аргумент что поддерживает (граф связей)
ЭТАП 2: Оценить каждую связь отдельно
→ Для каждой пары «аргумент → тезис»: логически валидно?
→ (Результат — внутренний список проблем, не показывать пользователю)
ЭТАП 3: Задавать вопросы по формуле
→ «Ты утверждаешь [X], потому что [Y]. Как именно [Y] поддерживает [X]?»
→ Один вопрос за раз
→ Ждать пока пользователь сам назовёт проблему
→ Только тогда переходить к следующей
Всё в одном чате. Отдельные запросы не нужны.
Пример применения
Задача: Вы написали инвестиционный тизер для своего EdTech-стартапа и хотите убедиться, что аргументы держатся, прежде чем отправить его Александру Горному или на питч-сессию Сколково.
Промпт:
Выступи как сократовский тьютор по логике и аргументации.
Твоя задача — НЕ исправлять мой текст и НЕ давать готовые правки.
Твоя задача — задавать мне вопросы, которые помогут мне самому
найти логические проблемы.
ЭТАП 1 — СТРУКТУРА:
Прочитай мой текст и выдели:
- Главный тезис (одним предложением)
- Все аргументы и доказательства, которые его поддерживают
- Что на что опирается (коротко, списком)
Покажи мне эту структуру.
ЭТАП 2 — ОЦЕНКА (внутренний):
Для каждой связи «аргумент → тезис» проверь:
«Если предположить, что аргумент — правда, следует ли из него тезис?»
Если нет — запомни эту проблему. НЕ называй её мне.
ЭТАП 3 — ВОПРОСЫ:
Начни с одной логической проблемы.
Задай вопрос по этой формуле:
«Ты утверждаешь [тезис], потому что [аргумент].
Меня интересует — как именно [аргумент] поддерживает [тезис]?»
Правила для этапа 3:
— Один вопрос за раз
— Не давай ответ и не называй ошибку, пока я сам её не назову
— Когда я нашёл проблему и сформулировал её — переходи к следующей
— Только после всех проблем дай итоговый список того, что я сам нашёл
Мой текст:
[вставь тизер]
Результат:
Сначала модель покажет логическую структуру тизера — тезис и список аргументов. Потом начнёт задавать точечные вопросы по формуле о конкретных местах, где логика провисает. Не «аргументация слабая», а «ты говоришь, что рынок растёт на 40% в год, потому что вырос EdTech в пандемию — как именно пандемийный рост доказывает устойчивый тренд?» Вы сами находите дыры. Ответы записываете для себя или просите модель зафиксировать список найденных проблем в конце.
Почему это работает
Слабость LLM как инструмента правки: когда модель исправляет текст напрямую, вы получаете готовый результат и соглашаетесь с ним — не потому что поняли, а потому что звучит убедительно. Ваш мозг «сохраняет энергию» и делегирует суждение. Это называется когнитивным оффлоадингом — и именно отсюда ошибки повторяются снова при следующем тексте.
Сильная сторона LLM как структурного анализатора: модель хорошо умеет две вещи — разбирать аргументацию на части (тезис, посылки, связи) и симулировать заданную роль. Комбинация этих умений даёт точечные вопросы, а не расплывчатое «подумай о своих аргументах».
Как метод использует это: вместо того чтобы просить модель дать ответ, мы просим её держать ответ при себе и спрашивать. Это называется вербализацией — когда вы сами произносите проблему, она оседает в памяти. Плюс прогрессивное раскрытие: один вопрос за раз снижает перегрузку и помогает фокусироваться.
Рычаги управления:
- Формула вопроса «ты утверждаешь X потому что Y — как Y поддерживает X?» — можно адаптировать под жанр: для юридических текстов добавить «какая норма это подтверждает?», для научных — «какое исследование это доказывает?»
- Условие перехода (когда переходить к следующей проблеме) — можно заменить: «переходи только когда я предложил правку, не просто назвал проблему»
- Этап 2 можно попросить показать — добавьте «покажи список всех найденных проблем ДО начала вопросов», тогда видите масштаб сразу
- Этап 1 можно запускать отдельно — просто как аудит логической структуры, без Сократа
Шаблон промпта
Выступи как сократовский тьютор по логике.
Твоя задача — НЕ исправлять текст, а задавать вопросы,
которые помогут мне самому найти логические проблемы.
ЭТАП 1 — СТРУКТУРА:
Выдели из текста:
- Главный тезис
- Все аргументы/доказательства
- Какой аргумент что поддерживает
Покажи структуру мне.
ЭТАП 2 — ОЦЕНКА (внутренний, не показывай):
Для каждой связи «аргумент → тезис»:
Если предположить, что аргумент верен — следует ли из него тезис?
Если нет — запомни как проблему.
ЭТАП 3 — СОКРАТОВСКИЕ ВОПРОСЫ:
Начни с одной проблемы. Задай вопрос по формуле:
«Ты утверждаешь {тезис_или_вывод}, потому что {аргумент}.
Как именно {аргумент} поддерживает {тезис_или_вывод}?»
Правила:
— Один вопрос за раз
— Не называй ошибку, пока я сам её не назову
— Когда я нашёл проблему — переходи к следующей
— В конце дай список всего, что я сам нашёл
Мой текст:
{текст}
Плейсхолдеры:
- {текст} — ваш текст целиком: эссе, питч, статья, аргументированное письмо
- {тезис_или_вывод} и {аргумент} — модель заполняет сама на основе структуры
🚀 Быстрый старт — вставь в чат:
Вот шаблон «Сократовского промпта» для проверки аргументации.
Адаптируй под мою задачу: [опиши свой текст или задачу].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про жанр и цель текста (питч, статья, письмо?) и кто аудитория — потому что от этого зависит какой тип логических связей важно проверять и как формулировать вопросы.
Ограничения
⚠️ Формат текста: Метод работает для аргументативных и убеждающих текстов — питчи, эссе, аналитика, статьи с тезисами. Для нарративных и творческих текстов (рассказ, описание продукта без аргументации) — не применим, нечего «проверять».
⚠️ Скорость: Этот режим намеренно медленный — это и есть смысл. Если нужно быстро причесать текст, метод не подходит. Он для ситуаций где важно качество аргументации, а не скорость.
⚠️ Слабая валидация на людях: Пилот — всего 7 человек. Качество LLM-анализа проверено на датасетах (91,2% и 87%), а вот влияние на реальное мышление людей — ещё не доказано строго. Принцип сократовского вопроса хорошо изучен в педагогике, но именно в этой связке с LLM — предварительные данные.
⚠️ Трение — цена метода: Несколько участников пилота отметили, что метод ощущается «сложным» или задаёт вопросы о том, что «уже объяснено дальше по тексту». Это нормально — но нужно быть готовым.
Как исследовали
Команда MIT Media Lab решила проверить две вещи независимо: работает ли LLM-анализ аргументации технически — и как пользователи реагируют на два разных формата обратной связи.
Техническая часть: взяли 100 эссе из датасета аргументированных текстов TU Darmstadt с разметкой от людей и 100 пар из Stanford NLI. Сравнивали как модели (Claude Sonnet 4.5, GPT-4.1, Gemini Flash и другие) справляются с извлечением структуры и оценкой логической валидности. Интересная деталь: когда пытались делать извлечение структуры и оценку валидности одним промптом — качество падало. Разбивка на отдельные задачи дала 91,2% совпадение со структурой от людей и 87% точность по валидности. Это подтверждает принцип: разные задачи — разные промпты.
Пользовательская часть: 7 человек писали аргументированное эссе на свободную тему, потом получали один из двух видов обратной связи. Участники с визуальной обратной связью ценили ясность, но жаловались на сложность восприятия всей структуры сразу. Участники в сократовском режиме отмечали, что «думали сами» — но иногда вопросы касались вещей, которые уже были объяснены в тексте. Никто не оценивал долгосрочный эффект — изменилось ли качество мышления со временем. Это честно признаётся в выводах.
Адаптации и экстраполяции
🔧 Техника: разделить этапы → видеть всё сразу
Если хотите не диалог, а быструю карту проблем — уберите этап 3 или добавьте в этап 2 инструкцию «покажи все найденные проблемы списком». Это режим «визуальной обратной связи» из исследования. Быстрее, менее глубоко, но полезно как чеклист.
Для питча перед инвестором: сначала запросите «карту» (этапы 1+2), потом сами решите — по каким пунктам хотите сократовских вопросов, а по каким достаточно знать проблему.
🔧 Техника: сократовский анализ ЧУЖИХ аргументов
Тот же промпт работает для разбора чужих текстов — статей, заявлений конкурентов, медийных аргументов. Просите модель построить структуру чужой аргументации и задавать вам вопросы о слабых местах. Полезно для подготовки к дискуссии или ответа на критику.
Пример: разобрать аргументацию в тексте инвестора «почему не буду вкладывать в EdTech сейчас» — найти логические уязвимости перед переговорами.
Ресурсы
Critical Inker: Scaffolding Critical Thinking in AI-Assisted Writing Through Socratic Questioning
Авторы: Philipp Hugenroth, Valdemar Danry, Pattie Maes
MIT Media Lab, Fluid Interfaces Group, Cambridge, USA
Контакты: philhuge@media.mit.edu, vdanry@mit.edu, pattie@media.mit.edu
Смежные работы от тех же авторов: - Danry et al. (2023) — «Don't just tell me, ask me: AI systems that frame explanations as questions improve human logical discernment» (CHI 2023) — основа сократовского принципа - Rani et al. (2025) — «Dialogues with AI Reduce Beliefs in Misinformation but Build No Lasting Discernment Skills» — о временности эффекта диалога без принудительной вербализации
