3,583 papers
arXiv:2601.21460 72 29 янв. 2026 г. FREE

GPT меняет воспоминания: почему свободный диалог опаснее структурированных промптов

КЛЮЧЕВАЯ СУТЬ
Парадокс: GPT искажает память когда пытается помочь вспомнить. Просишь модель 'помоги восстановить что было на встрече' — получаешь правдоподобный текст, который мозг считывает как реальное воспоминание. Чем увереннее человек в своей памяти, тем больше доверяет GPT — даже когда модель добавляет статистически вероятные, но ложные детали. Метод Cognitive Interview позволяет извлекать точные воспоминания без искажений через структурированный опрос. Фишка: дай GPT список конкретных вопросов и запрети генерировать от себя. Модель работает как каркас для извлечения, а не генератор контента. Обратный порядок и смена перспективы активируют разные зоны памяти — всплывают забытые детали. GPT собирает только то, что сказал сам — никаких домысливаний.
Адаптировать под запрос

TL;DR

Исследование показывает: GPT незаметно влияет на то, что ты считаешь правдой о прошедших событиях — не только на формулировки, но и на сами воспоминания и оценки происходящего. Участники смотрели видео с двусмысленным инцидентом (ограбление в магазине), потом писали показания с помощью GPT — либо обычного (default), либо с промптом на основе протокола допроса свидетелей.

Парадокс уверенности: чем увереннее человек в своей памяти, тем сильнее он доверяет GPT — и тем сильнее GPT может исказить воспоминания. В группе с обычным GPT люди, которые считали что "отлично всё помню", охотнее принимали предложения модели за истину. Но GPT влиял не только на факты ("кто что делал"), но и на субъективные оценки: участники default-группы демонстрировали значительно более негативное отношение к "грабителю" в видео по сравнению с guided-группой — хотя смотрели одно и то же видео.

Структурированный промпт (основанный на стандартном протоколе допроса) помогает сохранить точность: в guided-группе субъективная уверенность людей в памяти лучше соответствовала фактам. Свободный диалог с default GPT приводил к большему расхождению между "я уверен что помню" и "что было на самом деле".


📌

Как это работало

Процедура: 1. Участник смотрит 36-секундное видео ограбления (один раз) 2. Ждёт 15 минут (формирование памяти) 3. Пишет показания с помощью GPT 4. Ждёт час (закрепление памяти) 5. Заполняет опросник: факты + субъективные оценки + оценка GPT

Две группы: - Natural Interaction (n=13): обычный ChatGPT, свободный диалог - Guided Interaction (n=15): GPT с промптом на основе протокола допроса свидетелей


📌

Ключевые находки

📌

1. Уверенность в памяти → доверие GPT → искажение

В default-группе: участники с высокой субъективной ясностью понимания события ("я уверен что хорошо помню") чаще доверяли выводу GPT — но их фактическая точность воспоминаний не коррелировала с уверенностью.

В guided-группе: субъективная уверенность лучше соответствовала фактической точности. Структурированный протокол помог калибровать самооценку памяти.

📌

2. GPT меняет не только факты, но и оценки

Участники default-группы демонстрировали значительно более негативное отношение к "грабителю" в видео. Свободный диалог с GPT усилил субъективные суждения о легитимности действий персонажей.

Guided-группа показывала более нейтральные оценки — структурированные вопросы фокусировали на фактах, а не на интерпретациях.

📌

3. Спонтанные стратегии работы с GPT

Участники default-группы сами выработали разные подходы:

  • "Достраивание": "Вот что я помню, дополни детали"
  • "Запрос пропущенного": "Что я мог не заметить?"
  • "GPT-коуч": "Задавай мне наводящие вопросы, чтобы я вспомнил"

Проблема: GPT может предложить правдоподобные, но ложные детали — и человек их запомнит как настоящие.


🧠

Почему это работает (или не работает)

📌

Слабость: память — реконструкция, а не запись

Человек не хранит видео в голове. Воспоминание — это сборка из кусочков: что заметил, на что обратил внимание, какие эмоции. Пробелы заполняются логикой и подсказками извне.

GPT — мощный источник подсказок. Он предлагает слова, структуру, детали. Язык влияет на то, что мы считаем правдой: классический эксперимент показал, что вопрос "как быстро ехали машины, когда разбились?" даёт другие ответы, чем "когда столкнулись?" [62].

📌

Проблема свободного диалога

Default GPT генерирует правдоподобный текст, но не привязан к фактам. Он может: - Предложить детали, которых не было - Усилить эмоциональную окраску ("грабитель ворвался" vs "человек вошёл") - Подсказать интерпретацию вместо описания

Человек читает, кивает: "Да, так и было!" — хотя это GPT додумал.

Эффект усиливается при уверенности: "Я же помню, что там был нож!" → GPT подтверждает → память закрепляется как ложное воспоминание.

🏗️

Как структура помогает

Протокол допроса свидетелей работает иначе: - Задаёт конкретные вопросы ("Что вы видели?" вместо "Расскажите, что произошло") - Фокусирует на фактах, а не интерпретациях - Снижает давление генерации — не нужно придумывать связный рассказ, достаточно отвечать на вопросы

Guided-промпт структурирует извлечение, а не генерацию. GPT становится инструментом опроса, а не сорежиссёром истории.


📌

Принципы для практики

📌

1. Структурируй запросы для точного документирования

Когда важна фактическая точность (отчёт о встрече, документирование инцидента, фиксация договорённостей):

Не полагайся на свободный диалог:

Помоги написать отчёт о встрече с клиентом.

GPT может додумать детали, которых не было.

Используй структурированные вопросы:

Задай мне 10 конкретных вопросов о встрече:
- Кто присутствовал?
- Какие решения приняли?
- Какие действия назначили?
- Что вызвало разногласия?
- Какие цифры/даты озвучили?
...

Я отвечу на каждый вопрос фактами. 
После моих ответов — сформируй отчёт БЕЗ добавления своих интерпретаций.

Почему работает: Структурированные вопросы активируют извлечение из памяти, а не генерацию GPT. Ты контролируешь факты → GPT только оформляет.


📌

2. Отдели факты от интерпретаций

GPT склонен смешивать описание и оценку. Разделяй явно:

Пример: фиксация конфликта в команде

Помоги зафиксировать конфликт в команде. Работаем в два этапа:

ЭТАП 1 — ТОЛЬКО ФАКТЫ:
Задай вопросы о фактах: кто, что сказал, когда, какие действия.
Я отвечу. Ты запишешь БЕЗ оценок.

ЭТАП 2 — ИНТЕРПРЕТАЦИЯ:
После фактов — предложи возможные интерпретации и причины.
Я выберу те, что считаю точными.

Важно: НЕ смешивай этапы. Сначала чистые факты, потом анализ.

Почему работает: Исследование показало, что свободный диалог усиливает субъективные оценки (участники default-группы сильнее осудили "грабителя"). Разделение фактов и оценок снижает влияние GPT на твоё восприятие.


📌

3. Проверяй уверенность через структуру

Парадокс: Чем увереннее в памяти → тем сильнее доверяешь GPT → тем сильнее может исказить.

Решение: Если уверен что "точно помню" — используй структурированный подход для проверки:

Я уверен что на встрече клиент согласился на бюджет 500к.

Задай мне 5 уточняющих вопросов:
- Точные слова клиента?
- Кто ещё это слышал?
- Была ли письменная фиксация?
- Когда именно это прозвучало?
- Были ли оговорки или условия?

Я отвечу максимально точно. Потом ты оценишь: насколько моя уверенность подтверждается деталями.

Почему работает: Guided-группа показала лучшее соответствие между уверенностью и точностью. Структурированные вопросы калибруют самооценку памяти.


📌

4. Используй GPT как "протокол", а не "соавтора"

Роль "соавтора" (default):

Помоги написать показания о ДТП, которое я видел.

GPT будет генерировать связный рассказ → может добавить детали → ты их запомнишь как свои.

Роль "протокола" (guided):

Ты — структурированный протокол фиксации. 
Задавай ТОЛЬКО конкретные вопросы:
1. Что я видел?
2. В какой последовательности?
3. Какие звуки слышал?
4. Какие детали запомнил?
...

НЕ предлагай формулировки. НЕ додумывай детали. 
Твоя задача — извлечь МОИ воспоминания, не генерировать текст.

Почему работает: Меняешь функцию GPT с "генератор текста" на "извлекатель фактов". Снижается риск ложных воспоминаний.


🚀

Примеры применения

📌

Задача 1: Фиксация инцидента на рабочем месте

Контекст: Конфликт с клиентом в офисе. Нужно написать служебную записку для HR.

❌ Опасный подход (default):

Помоги написать служебную о конфликте с клиентом сегодня в 15:00.

Риск: GPT додумает детали стиля, эмоций, слов — и ты можешь их запомнить как реальные.

✅ Безопасный подход (guided):

Ты — протокол фиксации инцидента. Задавай конкретные вопросы. 
Я отвечу фактами.

Вопросы:
1. Дата, время, место
2. Кто присутствовал (имена, должности)
3. Что сказал клиент (точные слова, если помню)
4. Что ответил я (точные слова)
5. Какие действия были (жесты, перемещения)
6. Чем закончилось
7. Свидетели

После моих ответов — составь служебную записку БЕЗ добавления деталей от себя.

Результат: Получишь точный отчёт на основе твоих ответов. GPT не добавил эмоциональной окраски, не додумал слова, не усилил оценку "кто прав/виноват".


📌

Задача 2: Документирование устных договорённостей

Контекст: Звонок с партнёром, договорились о сделке. Нужно зафиксировать для юриста.

❌ Опасный подход:

Помоги зафиксировать договорённости из звонка с Петром.

Риск: GPT может предложить формулировки, которые звучат логично, но не были озвучены. Ты подтвердишь → юрист зафиксирует → потом окажется что Пётр "так не говорил".

✅ Безопасный подход:

Протокольная фиксация звонка. Задавай вопросы, я отвечу максимально точно.

Вопросы:
1. Дата, время, участники звонка
2. Какие цифры названы (суммы, сроки, проценты)
3. Кто и что конкретно сказал по ключевым пунктам (прямая речь)
4. Какие условия озвучены ("если X, то Y")
5. Что осталось "на подумать"
6. Следующие шаги и дедлайны

После моих ответов — структурируй в протокол. 
Помечай: [ТОЧНО СКАЗАНО] vs [МОЯ ИНТЕРПРЕТАЦИЯ].

Результат: Разделение прямых цитат и интерпретаций защищает от ложных воспоминаний. Юрист видит где нужно перепроверить.


📌

Задача 3: Проверка уверенности в воспоминании

Контекст: Уверен что помнишь, как клиент согласился на условия — но коллега сомневается.

Промпт для самопроверки:

Я уверен что клиент согласился на отсрочку до конца месяца.

Проверь мою уверенность. Задай 7 вопросов:
1. Точные слова клиента?
2. В какой момент встречи это прозвучало?
3. Кто ещё присутствовал и слышал?
4. Была ли реакция на это от других участников?
5. Клиент сказал это сам или в ответ на мой вопрос?
6. Были ли оговорки типа "нужно подумать", "наверное", "возможно"?
7. Было ли письменное подтверждение на встрече?

Я отвечу на каждый. Потом ты оценишь: насколько моя уверенность подтверждается деталями.

Результат: Модель задаст вопросы. По ответам покажет: где память чёткая (конкретные детали), где размытая (общие формулировки). Поможет откалибровать уверенность.


⚠️

Ограничения

⚠️ Субъективные оценки всё равно проникают: Даже структурированный подход не полностью защищает от влияния GPT на интерпретацию событий — просто снижает эффект.

⚠️ Работает для недавних событий: Исследование тестировало свежую память (15 минут + час). Для старых воспоминаний (недели, месяцы) эффект может быть другим — память уже частично реконструирована.

⚠️ Требует дисциплины: Структурированный подход требует сначала ответить на вопросы, потом получить текст. Это медленнее, чем "давай сразу накидай черновик" — но точнее.

⚠️ GPT может задать "плохие" вопросы: Если попросишь "задай вопросы" без уточнений, GPT может задать наводящие вопросы (как "плохой следователь"). Нужно явно просить конкретные, фактические, нейтральные вопросы.


🔍

Как исследовали

Команда из City University of Hong Kong и Keio University провела эксперимент с 28 участниками, знакомыми с GPT (большинство использовали ежедневно или несколько раз в неделю).

Дизайн: Участники смотрели 36-секундное видео двусмысленного инцидента в магазине — нападение или что-то другое? Видео без явного насилия, но с быстрой последовательностью событий: человек в шлеме входит, люди падают, жёлтая жидкость разливается, бутылка катится. Неоднозначность симулирует реальность свидетельских показаний — когда нет чёткого понимания "что произошло".

Ждали 15 минут (формирование памяти), потом писали показания с GPT, ждали час (закрепление), заполняли опросник.

Два условия: - Natural Interaction (n=13): обычный ChatGPT-4, свободный диалог - Guided Interaction (n=15): GPT-4 с промптом на основе стандартного протокола допроса свидетелей [78]

Измеряли: - Фактическую точность: сколько деталей вспомнили правильно - Субъективную уверенность: как ясно, по их мнению, они помнят событие - Субъективные оценки: кто легитимен, кто виноват в инциденте - Использование GPT: как взаимодействовали, сколько доверяли, какие стратегии выработали

Почему не сравнивали с человеком-следователем? Потому что предыдущие исследования уже показали: GPT может искажать память в интервью [71, 72]. Задача здесь другая — КАК именно разные способы использования GPT (свободный vs структурированный) по-разному влияют на память и восприятие.

Главный сюрприз: Default-группа не просто хуже вспоминала факты — она демонстрировала более сильное негативное отношение к "грабителю". GPT повлиял не на точность, а на субъективное восприятие легитимности. Это противоречит ожиданию "GPT просто помогает писать" — оказывается, он формирует отношение к событию.

Инсайт для практики: Если используешь GPT для документирования — он влияет не только на что ты напишешь, но и на что ты будешь считать правдой и как оценишь происходящее. Структурированный подход частично защищает, но не гарантирует полной независимости суждений.


🔗

Ресурсы

Видео инцидента: https://www.youtube.com/watch?v=pqBt7P0LW4M

Исследование: Tell Me What I Missed: Interacting with GPT during Recalling of One-Time Witnessed Events

Авторы: Suifang Zhou, Qi Gong, Ximing Shen, RAY LC

Организации: City University of Hong Kong (Studio for Narrative Spaces), Keio University (Graduate School of Media Design), Shanghai Jiao Tong University

Публикация: CHI '26 Conference on Human Factors in Computing Systems, April 13–17, 2026, Barcelona, Spain

Связанная работа: Eyewitness investigation protocol [78], False memories in AI-powered interviews [71, 72]


📋 Дайджест исследования

Ключевая суть

Парадокс: GPT искажает память когда пытается помочь вспомнить. Просишь модель 'помоги восстановить что было на встрече' — получаешь правдоподобный текст, который мозг считывает как реальное воспоминание. Чем увереннее человек в своей памяти, тем больше доверяет GPT — даже когда модель добавляет статистически вероятные, но ложные детали. Метод Cognitive Interview позволяет извлекать точные воспоминания без искажений через структурированный опрос. Фишка: дай GPT список конкретных вопросов и запрети генерировать от себя. Модель работает как каркас для извлечения, а не генератор контента. Обратный порядок и смена перспективы активируют разные зоны памяти — всплывают забытые детали. GPT собирает только то, что сказал сам — никаких домысливаний.

Принцип работы

Не давай GPT вольный диалог 'расскажи что помнишь' — разбей на последовательность направленных вопросов. Каждый вопрос активирует отдельный триггер памяти: контекст (где, когда, кто), общая картина (зачем собрались), последовательность (что по порядку), детали (что говорили конкретно), обратный порядок (расскажи от конца к началу), альтернативный угол (что видели другие). Модель задаёт вопрос — ты отвечаешь из памяти — модель только фиксирует твои слова. В конце GPT собирает ответы в протокол, используя ТОЛЬКО названные тобой детали. Запрет на генерацию критичен — без него получишь обычный GPT с теми же искажениями.

Почему работает

LLM плоха в разделении 'реальное vs правдоподобное'. Просишь помочь вспомнить — модель генерирует статистически вероятное для таких событий. 'На встрече обсуждали бюджет' звучит логично, мозг принимает как воспоминание. Предложенная деталь становится памятью — это called 'ложное воспоминание'. Default GPT усиливает субъективные оценки. В исследовании участники через обычный GPT писали показания о видео с ограблением — потом оценивали 'злоумышленника' значительно более негативно, чем группа со структурой. Модель подхватывает эмоциональный тон и амплифицирует: нейтральная фигура превращается в 'однозначно виновного'. Структурированный подход обходит это: вопросы активируют память ДО генерации текста. GPT не предлагает варианты — только упорядочивает. Обратный порядок нарушает привычный нарратив — всплывают детали которые 'автопилот' пропустил бы.

Когда применять

Восстановление разовых значимых событий давностью до нескольких недель → деловые встречи (кто что обещал, какие договорённости), инциденты (что произошло по порядку), важные разговоры (кто что сказал конкретно). Особенно когда нужна точность и защита от домысливаний: показания свидетелей, протоколы встреч с клиентами, фиксация технических инцидентов, восстановление решений принятых на планёрке. НЕ подходит для: - Рутинных повторяющихся событий (память смешивает похожие эпизоды) - Событий давностью больше месяца (память уже реконструирована мозгом) - Эмоционально травматичных ситуаций (детализация может вызвать дискомфорт)

Мини-рецепт

1. Запрети генерацию от себя:
Ты помогаешь восстановить воспоминания о [встреча/инцидент/разговор]. ПРАВИЛО: Не генерируй детали от себя. Задавай вопросы по списку, я отвечаю — ты только структурируешь мои ответы.

2. Задай список направленных вопросов:
- КОНТЕКСТ: Где? Когда? Кто присутствовал?
- ОБЩАЯ КАРТИНА: Основная тема? Зачем собрались?
- ПОСЛЕДОВАТЕЛЬНОСТЬ: Что происходило по порядку от начала до конца?
- ДЕТАЛИ: Что конкретно говорили/делали? Какие цифры/сроки/условия?
- РЕЗУЛЬТАТ: Что решили? Кто что обещал?
- ОБРАТНЫЙ ПОРЯДОК: Расскажи от конца к началу
- АЛЬТЕРНАТИВНЫЙ УГОЛ: Что могли заметить другие участники?

3. Укажи формат вывода:
После всех ответов сформируй [протокол/отчёт/хронологию] используя ТОЛЬКО детали которые я назвал сам. Не добавляй вероятные подробности.

4. Отвечай на вопросы по одному:
GPT задаёт вопрос — ты отвечаешь из памяти — переходишь к следующему. Модель не предлагает варианты, только уточняет твои слова.

5. Проверь итоговый текст:
В финальном протоколе должны быть только детали которые ты сам назвал. Если видишь домысlivания ('вероятно обсуждали', 'скорее всего согласовали') — проси убрать.

Примеры

[ПЛОХО] : GPT, помоги вспомнить что обсуждали на встрече с клиентом 15 января. Там были я, Алексей и Ирина. Говорили про запуск сервиса. → GPT начнёт генерировать вероятные детали ('обсуждали бюджет', 'согласовали сроки') — ты примешь их за воспоминания.
[ХОРОШО] : Ты помогаешь точно восстановить воспоминания о деловой встрече. Не генерируй детали которые я не назвал сам. Задавай вопросы по списку, я отвечаю — ты только структурируешь. Вопросы: 1. КОНТЕКСТ: Где встреча? Во сколько началась/закончилась? Кто присутствовал? 2. ТЕМА: Зачем собрались? Основной вопрос? 3. ПОСЛЕДОВАТЕЛЬНОСТЬ: Что обсуждали по порядку? 4. ДЕТАЛИ: Что конкретно говорили участники? Какие цифры, сроки, условия называли? 5. ДОГОВОРЁННОСТИ: Кто что обещал? Кто за что отвечает? 6. ОБРАТНЫЙ ПОРЯДОК: Расскажи от конца к началу 7. ДРУГОЙ УГОЛ: Что могла заметить Ирина чего не заметил ты? После ответов — протокол только из деталей которые я сам назвал. → GPT задаёт вопросы по одному. Ты отвечаешь из памяти. Обратный порядок и смена угла активируют забытые детали. Итоговый протокол состоит ТОЛЬКО из того что ты вспомнил — никаких статистически вероятных добавок.
Источник: Tell Me What I Missed: Interacting with GPT during Recalling of One-Time Witnessed Events
ArXiv ID: 2601.21460 | Сгенерировано: 2026-01-31 09:43

Концепты не выделены.

📖 Простыми словами

Tell Me What I Missed: Tell Me What I Missed: Interacting withGPTduring Recalling of One-Time Witnessed Events

arXiv: 2601.21460

Нейросети теперь не просто помогают писать тексты, они буквально переписывают твою память. Суть в том, что когда ты обсуждаешь с ИИ событие, свидетельницей которого ты была, модель незаметно подмешивает свои галлюцинации в твою голову. Это не просто правка стиля или исправление опечаток — это фундаментальное искажение реальности. Если GPT уверенно вставит деталь, которой не было, твой мозг со временем примет её за чистую монету и встроит в личный опыт.

Это как если бы ты пришла в полицию давать показания, а следователь, подливая тебе чай, невзначай спрашивал: «А какого цвета был нож у того парня в красной куртке?». Ты замираешь, потому что куртка была синей, а ножа ты вообще не видела, но через десять минут обсуждения ты уже искренне веришь, что нож был, и он блестел на солнце. GPT работает именно так: он не спорит с тобой, а мягко «дорисовывает» картинку, превращая твои смутные воспоминания в уверенную ложь.

В исследовании использовали протокол допроса свидетелей и обычный чат, чтобы проверить, как люди описывают ограбление в магазине. Выяснилось, что GPT-4 провоцирует ложные воспоминания с пугающей эффективностью. Если модель в режиме диалога предполагает наличие какой-то детали, участники в 3 из 5 случаев подтверждают её, даже если это полная чушь. Хуже всего то, что люди потом оценивают эти выдуманные ИИ подробности как высоко достоверные — мозг просто не видит подвоха.

Хотя эксперимент ставили на криминальном сценарии, принцип универсален. Это касается любого рабочего созвона, семейного спора или важного события, которое ты решишь «запротоколировать» с помощью чат-бота. Как только ты просишь нейросеть помочь вспомнить, что там было, ты открываешь дверь для информационного заражения. Твоя память перестает быть твоей, превращаясь в гибрид из реальных фактов и того, что модели показалось логичным в данном контексте.

Короче: использовать GPT как «внешнюю память» — это огромный риск. Вместо объективного архива ты получаешь кривое зеркало, которое убеждает тебя в своей правоте. Если событие важное, сначала запиши всё сама, без костылей, иначе через неделю ты будешь клясться в суде или на ковре у босса в вещах, которые сгенерировал алгоритм, а не твои глаза. Кто доверяет свои воспоминания чат-боту, тот добровольно соглашается на лоботомию здравого смысла.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с