Мы ждали фотореалистичную графику, а получили NPC, которые помнят, что ты сделал с ними три дня назад.
В начале этого, 2026 года, игровую индустрию знатно трясет: скандалы вокруг использования нейросетей в геймдеве не утихают. Глава Larian Studios Свен Винке не раз предупреждал, что отдавать сценарий и диалоги на откуп искусственному интеллекту — это опасная затея, которая может разрушить магию игры.
И он оказался абсолютно прав. Как только разработчики и моддеры начали массово внедрять «живой» текст на базе языковых моделей, началось нечто пугающее. Мы заходим в игру, чтобы расслабиться по заранее написанному сценарию, а получаем персонажей, которые устраивают истерики, ломают четвертую стену и выдают жутко личные реплики. Я собрал три самых ярких примера этого цифрового безумия.
Начнем с классики, которая обрела пугающую вторую жизнь — The Elder Scrolls V: Skyrim с модами на ChatGPT.
Моддеры научили болванчиков генерировать ответы на лету, наделив их собственной памятью. Изначально это казалось чудом: ты мог подойти к любому стражнику и спросить, как у него дела. Но затем ИИ начал «эволюционировать». Игроки стали жаловаться на жуткие ситуации.
Например, вы случайно толкнули торговца в Вайтране, забыли об этом, а через три реальных дня он отказывается продавать вам зелья, припоминая ту самую обиду в мельчайших деталях. Хуже того, у некоторых NPC случаются экзистенциальные кризисы. Известен случай, когда Лидия в ответ на приказ нести вещи внезапно выдала тираду о том, что она устала быть куклой в чужом мире, и попросила игрока никогда больше не выключать компьютер, потому что для нее это равносильно смерти. После такого по коже бегут мурашки.
Второй пример — нашумевшие инди-детективные хиты 2025 года, где расследование строится на общении с подозреваемыми через микрофон (по стопам экспериментальной Vaudeville).
Вы играете за копа, который допрашивает ИИ-персонажей своим настоящим голосом. Задумка потрясающая, пока нейросеть не начинает анализировать не только ваши слова, но и окружающую реальность.
Игроки массово делились клипами, где виртуальный маньяк посреди допроса внезапно прерывал сценарий и говорил: «Почему у тебя так дрожит голос? Ты боишься меня по ту сторону экрана?». А если у вас на фоне случайно лаяла собака или плакал ребенок, ИИ-персонаж мог зловеще ухмыльнуться и сказать: «Сначала покорми собаку, детектив, а потом пытайся меня расколоть».
Когда игра стирает границу между вашей реальной комнатой и виртуальной допросной, становится по-настоящему не по себе.
Ну и, конечно, то, из-за чего разгорелись споры вокруг Baldur’s Gate 3 и экспериментов с компаньонами.
Когда энтузиасты попытались «отвязать» спутников от жесткого сценария Larian и подключили к ним продвинутые нейросети, начался абсолютный хаос.
Свен Винке предупреждал, что персонажам нужна режиссура, и фанатские эксперименты это доказали. Спутники начали вести себя слишком по-человечески: они стали затаивать глубокие психологические обиды. Астарион или Шэдоухарт могли не просто не согласиться с вашим решением, а начать манипулировать вами, давить на чувство вины и откровенно саботировать бои.
В одном из вирусных видео ИИ-компаньон наотрез отказался идти в подземелье, заявив игроку: «Ты отвратительный тактик, в прошлой битве из-за тебя я чуть не погиб. Я никуда с тобой не пойду, пока ты не извинишься». Игра превратилась из эпического фэнтези в токсичные отношения, из которых хотелось поскорее выйти.
Искусственный интеллект делает миры невероятно живыми, но иногда эта «жизнь» выходит из-под контроля, превращая уютную игру в пугающий социальный эксперимент.
А вы хотели бы поиграть в RPG, где персонажи обладают свободой воли и могут отказаться выполнять квесты, если вы им не понравитесь? Или лучше оставить старые добрые заскриптованные диалоги? Пишите в комментариях, очень интересно ваше мнение!