Найти в Дзене
NeuroWave

ИИ и фальшивые воспоминания: как нейросети переписывают нашу реальность

Ложная память — феномен, при котором человек уверенно вспоминает событие, которого не было. Это может происходить из-за неверного источника информации или внушения. Современные исследования подтверждают, что человеческая память реконструируется и легко искажается под воздействием внешних данных . Классический психолого-когнитивный метод DRM показывает, что участники часто вспоминают слова, которых не слышали, если они связаны семантически. Участники экспериментов, которым показывали кадры deepfake-видео несуществующих фильмов спустя время начинали уверенно утверждать, что видели эти картины реально . Однако эффект от подобных визуальных манипуляций сравним с ложным текстовым описанием события — в некоторых случаях «мнимая реальность» создавалась даже через текст. MIT и другие исследовательские лаборатории указывают, что AI-редактированные изображения увеличивают вероятность ложных воспоминаний более чем в два раза по сравнению с оригинальными иллюстрациями . Краткий диалог с чат-бото
Оглавление
AI-генерация
AI-генерация

1. Что такое ложная память и как она возникает

Ложная память — феномен, при котором человек уверенно вспоминает событие, которого не было. Это может происходить из-за неверного источника информации или внушения.

Современные исследования подтверждают, что человеческая память реконструируется и легко искажается под воздействием внешних данных .

Классический психолого-когнитивный метод DRM показывает, что участники часто вспоминают слова, которых не слышали, если они связаны семантически.

2. Deepfake и визуальные иллюзии: ложные воспоминания из видео

Участники экспериментов, которым показывали кадры deepfake-видео несуществующих фильмов спустя время начинали уверенно утверждать, что видели эти картины реально .

Однако эффект от подобных визуальных манипуляций сравним с ложным текстовым описанием события — в некоторых случаях «мнимая реальность» создавалась даже через текст.

MIT и другие исследовательские лаборатории указывают, что AI-редактированные изображения увеличивают вероятность ложных воспоминаний более чем в два раза по сравнению с оригинальными иллюстрациями .

3. ChatGPT и LLM: гипноз с эффектом утраты памяти

Краткий диалог с чат-ботом на базе большой языковой модели (LLM) может создать ложную память о преступлении, которое пользователь никогда не видел. Эксперимент показал, что после взаимодействия с генеративной моделью 36,4% респондентов вспоминали неверные детали, спустя неделю — 87% сохраняли уверенность в ложности памяти.

Эффект усиливался, если пользователь был мало знаком с технологией AI — но проявлял интерес к криминальным темам, как выяснили учёные.

4. Почему память поддается влиянию ИИ

Механизм ложной памяти связывается с конфабуляцией — когда мозг заполняет пропуски в воспоминаниях своими догадками . При взаимодействии с ИИ, особенно когда ответы звучат уверенно и убедительно, пользователь не осознаёт, что его память модифицирована.

ИИ модели используют шаблоны, которые звучат логично и правдоподобно, подталкивая мозг воспринимать их как истину. Когнитивная наука показывает, что нейронные структуры гиппокампа формируют ложные потоки воспоминаний при взаимодействии с искажонной информацией .

5. Чем ИИ вызывает ложные воспоминания сильнее?

По данным издания The Atlantic, ответы AI особенно опасны тем, что они сопровождаются обратной связью («Ваш ответ правильный...»). Это усиливает уверенность в ложных деталях .

Кроме того, визуально реалистичные deepfake‑видео или AI‑редактированные изображения развивают эффект воображения (imagination inflation). Когда человек представляет себя участником события — память становится более живой и путается с реальной .

6. Как проявляется эффект в жизни

  • Участницам эксперимента показывали ролик о вымышленном ограблении, а затем чат‑бот задавал вопросы с ложными деталями (например, «были ли у преступников татуировки»). Многие респонденты спустя время начинали утверждать, что видели эти детали лично.
  • В ходе другой серии экспериментов пользователей ввели в заблуждение через deepfake-видео сериала, которого не существовало: примерно половина участников заявило, что они его смотрели.
  • AI-редакторы фотографий могли обмануть людей, заставив их поверить, что участвовали в несуществующем мероприятии. Такие «синтетические воспоминания» проявлялись даже при просмотре нескольких кадров.

7. Что это значит для общества?

  • Риски для судебных систем. Показания свидетелей могут быть искажены не человеческим давлением, а AI-интерактивом.
  • Манипуляции сознанием. Политические группы могут использовать чат-боты для внедрения ложных воспоминаний о событиях.
  • Психологические эффекты. Особенно у юной аудитории, склонной к эмоциональной уязвимости, замена реальных воспоминаний на синтетические может повлиять на идентичность и самооценку.

8. Рекомендации по защите

  • Критически проверять информацию от AI: сомневаться, если ответ звучит слишком уверенно или подробности внезапны.
  • Медиа-грамотность и дебрифинг после взаимодействия с AI: объяснять пользователям, что помнить они могли не то, что видели.
  • Юридические рамки: законопроекты AI Act и регулирующие инициативы должны предусматривать ответственность за манипуляцию памятью .

Заключение

Исследования показывают: взаимодействие с AI, особенно deepfake-видео и чат-ботами, способно внушать убедительные воспоминания о событиях, которых не было.

Важно помнить: наша память хрупка, и искусственный интеллект может её изменить без физического вмешательства. Всегда стоит повторно сверять факты и критически оценивать любые истории, особенно те, которые звучат слишком правдоподобно.