TL;DR
Студенты с доступом к DeepSeek без обучения выступили хуже, чем те, кто работал вообще без ИИ. Те же студенты, кто перед экзаменом посмотрел 10-минутное видео с тремя конкретными приёмами, подняли оценку на треть балла. Разрыв — не в качестве модели, а в том, как человек с ней работает.
Главная находка: доступ к ИИ без понимания как им пользоваться создаёт иллюзию инструмента. Человек открывает чат, задаёт вопрос в лоб, получает гладкий текст — и либо слепо верит, либо разочаровывается. В обоих случаях результат хуже, чем без ИИ вообще. Проблема не в модели — в отсутствии рабочей модели взаимодействия.
Три техники из обучающего видео снимают этот эффект: повторять промпт несколько раз для разных углов зрения, разбивать задачу на шаги, давать обратную связь и уточнять. Плюс ключевой сдвиг в голове: воспринимать ИИ как генератор направлений для мышления, а не как генератор готовых ответов.
Схема метода
Три приёма, которым учило видео — можно применять в любом порядке или сочетать:
ПРИЁМ 1: Повтор промпта с разных сторон
→ Задай один вопрос несколько раз с разными акцентами
→ Получаешь разные углы зрения, не один «уверенный» ответ
ПРИЁМ 2: Разбивка на шаги (Chain-of-Thought)
→ Не спрашивай сразу итог — веди модель через промежуточные шаги
→ Каждый шаг проверяем отдельно, ошибки видны раньше
ПРИЁМ 3: Двусторонняя обратная связь
→ Даёшь и положительный, и отрицательный фидбэк на ответ
→ Модель уточняет, а не просто переформулирует
УСТАНОВКА: ИИ = источник идей, не источник ответов
→ Проси направления и гипотезы, не финальный текст
→ Всё проверяй: факты, выводы, ссылки
Все шаги — в одном диалоге, последовательно.
Пример применения
Задача: Ты — менеджер продукта в EdTech-стартапе. Нужно решить: запускать ли платную подписку вместо разовых платежей. Задача нетривиальная — зависит от аудитории, юнит-экономики, конкурентов.
Промпт:
Я менеджер продукта в EdTech. Мы продаём курсы разово, думаем перейти на подписку.
Шаг 1: Перечисли 5 главных рисков перехода на подписную модель для EdTech с чеком 3 000–5 000 ₽.
(После ответа):
Шаг 2: Теперь перечисли 5 главных выгод перехода — с противоположной стороны.
(После ответа):
Шаг 3: Что из рисков выше ты считаешь недооценённым? Почему?
Что из выгод — переоценённым?
(После ответа):
Хорошо. Один из рисков описан неточно — удержание аудитории в подписке
сложнее, чем ты написал, потому что в EdTech человек «заканчивает учиться»
после курса. Скорректируй анализ с учётом этого.
Результат:
Первые два шага дадут структурированный список аргументов с обеих сторон — без единого «уверенного» итога. Третий шаг заставит модель проранжировать по важности. Финальный фидбэк покажет, умеет ли модель обновлять позицию или просто соглашается — это важный индикатор качества её рассуждений по твоей теме. Получишь материал для принятия решения, а не готовый ответ «переходи / не переходи».
Почему это работает
LLM хорошо генерирует правдоподобный текст, но плохо знает, насколько он точен. При вопросе «в лоб» модель выдаёт один уверенный сценарий — тот, что статистически вероятнее в её обучающих данных. Это опасно для сложных задач, где «средний ответ» может быть неверным именно в твоём контексте.
Повтор промпта разрушает иллюзию одного правильного ответа. Разные формулировки дают разные акценты — ты видишь, что модель не «знает» ответ, а подбирает паттерн. Это переключает тебя из режима «читаю вывод» в режим «анализирую материал».
Разбивка на шаги и обратная связь используют то, в чём LLM действительно сильна: она хорошо корректирует и уточняет в диалоге. Вместо монолога получается рабочая сессия с помощником, каждый шаг которой можно остановить и проверить.
Рычаги управления: - Количество повторов → чем сложнее задача, тем больше итераций. Для простых — одна итерация. - Детальность шагов → чем уже шаг, тем легче поймать ошибку. Дроби агрессивнее. - Характер фидбэка → добавь конкретику («ты упустил X») вместо общего «неточно» — ответ будет точнее. - Финальная инструкция → «дай только направления, не вывод» — снижает риск слепого доверия результату.
Шаблон промпта
Я {роль}. Задача: {описание сложной задачи}.
Шаг 1: Перечисли {число} главных {рисков / проблем / аргументов против} с учётом {ключевой контекст}.
Шаг 2: Теперь перечисли {число} {выгод / аргументов за / возможностей} — с противоположной стороны.
Шаг 3: Что из {рисков / проблем} считаешь недооценённым?
Что из {выгод / возможностей} — переоценённым?
{Сформулируй уточнение по одному из пунктов, который кажется неточным}:
Скорректируй анализ с учётом этого.
Итог: дай не вывод, а 3 направления для дальнейшего изучения.
Что подставлять:
- {роль} — менеджер, юрист, маркетолог, фаундер
- {описание сложной задачи} — конкретная ситуация с несколькими факторами
- {число} — 3–5, не больше, иначе ответ станет поверхностным
- {ключевой контекст} — твои цифры, аудитория, ограничения
- {уточнение} — то, что ты по опыту знаешь точнее модели
🚀 Быстрый старт — вставь в чат:
Вот шаблон для анализа сложных задач через итерацию и обратную связь.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить все поля.
[вставить шаблон выше]
LLM спросит про твою роль, специфику задачи и что ты уже знаешь о ней — потому что без этого контекста шаги будут слишком общими, а фидбэк в конце ты не сможешь дать предметно.
Ограничения
⚠️ Задачи с объективной проверкой: Техника помогает с анализом и суждениями. Для задач с точным ответом (расчёты, факты, ссылки) — проверка всё равно обязательна, итерации не снижают риск галлюцинаций.
⚠️ Эффект для уже опытных пользователей: По данным исследования, обучение сильнее влияет на тех, кто раньше избегал ИИ для сложных задач. Если ты уже итерируешь промпты — прирост будет меньше.
⚠️ Самоотчёт об использовании: Исследование измеряло факт использования через опрос, а не через логи. Реальная картина может отличаться.
⚠️ Специфика задачи: Эффект показан на «issue-spotting» — задача на обнаружение проблем и их анализ. Насколько переносится на творческие или однозначные задачи — не тестировалось.
Как исследовали
164 студента-юриста Университета Гонконга писали mock-экзамен по контрактному праву. Задача классическая для юрфака: прочитай запутанный факт-паттерн и найди все правовые проблемы — от нарушения договора до обмана и эстоппеля.
Три группы: без ИИ вообще, с DeepSeek (без инструктажа), с DeepSeek + 10-минутное видео и тест на его понимание. Работы оценивались анонимно по рубрике с 12 суб-вопросами.
Самый показательный результат: группа с доступом без обучения выступила немного хуже, чем группа вообще без ИИ — три упущенных по сравнению с тремя найденными. Разрыв статистически незначим, но направление говорит о чём-то важном: бесконтрольный доступ к уверенным ответам ИИ может отвлекать, а не помогать. Особенно когда за два дня до экзамена вся Гонконгская пресса писала о преподавателе, чья статья оказалась напичкана галлюцинациями DeepSeek — это был фоновый контекст для студентов.
Интересная деталь дизайна: студентам заранее не говорили, у кого будет ИИ, чтобы не создавать ожидания. Группы сидели в разных аудиториях. Результаты перепроверяли через два канала — количество упущенных проблем и итоговый grade point. Оба показали один и тот же паттерн.
Адаптации и экстраполяции
🔧 Техника: Персональный «момент провала» как фидбэк
В шаблоне фидбэк абстрактный. Сделай его предметным — добавь в промпт один реальный случай из своей практики, где похожий сценарий провалился:
«В прошлом году мы запустили подписку в нашем продукте, и через 3 месяца 70% отказались, потому что «всё изучили». Скорректируй анализ с учётом этого кейса.»
Модель получает конкретное ограничение, а не абстрактное «неточно» — ответ становится значительно острее.
🔧 Техника: Сделай ИИ скептиком по умолчанию
Добавь в начало промпта:
«Я хочу принять решение. Твоя задача — не убедить меня, а найти слабые места в любом варианте, который я рассматриваю. Будь жёстким критиком.»
Это особенно полезно для задач, где ты уже склоняешься к одному варианту и ищешь подтверждения — классическая ловушка, от которой исследование предупреждает.
Ресурсы
Статья: Training for Technology: Adoption and Productive Use of Generative AI in Legal Analysis (2025, first draft)
Авторы: Benjamin M. Chen (Associate Professor, University of Hong Kong Faculty of Law), Bao Hong (PhD student, University of Hong Kong Faculty of Law)
Контакт: benched@hku.hk
Смежные работы из статьи: - Schwarcz & Choi (2023) — рекомендации по промптингу для юридических задач (источник техник из видео) - Schwarcz et al. (2025) — RAG + reasoning models улучшают качество работ студентов-юристов на 50%+ - Dahl et al. (2024) — уровень галлюцинаций у LLM достигает 58% на задачах по прецедентам
