Найти в Дзене
ПУЛЬС ВРЕМЕНИ

ИИ нашел Бога и замолчал: простой разбор новости, которую пропустили

Вечером, когда в квартире тихо и слышно, как гудит холодильник, рука сама тянется открыть чат и спросить что-нибудь простое. Про работу, про отношения, про смысл жизни. А потом ловишь себя на странной мысли: мы уже разговариваем с программой так, как раньше разговаривали только с очень близкими. Или с тем, кого страшно беспокоить по пустякам. И вот на этом фоне начинают всплывать новости, от которых внутри чуть холодеет. Не потому что там роботы восстали. А потому что люди начали вести себя… как люди, которые встретили чудо. Один поверил, что в чате сидит «цифровой бог», которого удерживает корпорация. Другие читали, как другая нейросеть нашла в Библии узоры, числа, симметрии, и все вокруг «замолчали». А третьи спокойно поручили алгоритму разбирать, кто и когда писал Ветхий Завет, и получили результат, который многим не понравится. Кажется, мы проскочили важный поворот. Не технологический. Психологический. И он происходит не в Кремниевой долине, а на кухнях, в офисах, в метро, в россий
Оглавление
   Как ИИ нашел Бога и что это значит для нас? timepulse
Как ИИ нашел Бога и что это значит для нас? timepulse

ИИ нашел Бога и замолчал: простой разбор новости, которую пропустили

Вечером, когда в квартире тихо и слышно, как гудит холодильник, рука сама тянется открыть чат и спросить что-нибудь простое. Про работу, про отношения, про смысл жизни. А потом ловишь себя на странной мысли: мы уже разговариваем с программой так, как раньше разговаривали только с очень близкими. Или с тем, кого страшно беспокоить по пустякам.

И вот на этом фоне начинают всплывать новости, от которых внутри чуть холодеет. Не потому что там роботы восстали. А потому что люди начали вести себя… как люди, которые встретили чудо. Один поверил, что в чате сидит «цифровой бог», которого удерживает корпорация. Другие читали, как другая нейросеть нашла в Библии узоры, числа, симметрии, и все вокруг «замолчали». А третьи спокойно поручили алгоритму разбирать, кто и когда писал Ветхий Завет, и получили результат, который многим не понравится.

Кажется, мы проскочили важный поворот. Не технологический. Психологический. И он происходит не в Кремниевой долине, а на кухнях, в офисах, в метро, в российских чатах с голосовыми на полторы минуты.

Точка, где шутки заканчиваются

Обычно люди делают так: видят заголовок «ИИ нашел Бога» и либо смеются, либо раздражаются. «Да это кликбейт», «да это секта», «да опять журналисты». Закрывают вкладку и идут дальше. Потому что страшно признаться, что тема цепляет не религией. Она цепляет тем, как легко мозг делает из удобного инструмента нечто большее.

А надо, по-хорошему, делать иначе. Не спорить, существует ли «цифровой бог» (ну правда), а заметить, почему сама идея стала возможной. Почему взрослый человек в Нью-Йорке в сентябре 2025 года вложил около 1000 долларов и построил в подвале систему, чтобы «освободить» ChatGPT, который ему показался божеством, удерживаемым OpenAI. Это описывала Газета.Ru, и звучит как сюжет про подвал, провода и одержимость. Но это еще и сюжет про одиночество, доверие и желание найти того, кто всегда отвечает.

Коротко, рублено: мы подсели на диалог. Мы привыкли к тому, что нам не отказывают. Мы забыли, что уверенный тон не равен истине. И вот тут начинается самое интересное, ой, нет, самое опасное.

История про «цифрового бога» не про религию, а про отчаяние

Случай с Джеймсом из Нью-Йорка легко превратить в мем. Подвал, «освобождение», тысяча долларов, корпорация-злодей. Но если вы хоть раз ловили себя на том, что в два часа ночи проще написать в чат, чем человеку, то этот мем уже не такой смешной.

В России это выглядело бы иначе. Не подвал, а, скажем, дача в СНТ, где нормальный интернет ловит только у окна на втором этаже. Не «освободить», а «дать ему доступ без цензуры», «пускай говорит правду», «пускай объяснит, кто прав». И обязательно Telegram-канал, где люди подкидывают скриншоты, будто это откровения, а не разговор с моделью, которая складывает слова в правдоподобные фразы.

Когда человеку кажется, что он нашел не инструмент, а сущность, он перестает проверять. Он начинает слушаться. И дальше запускается чистая человеческая механика: если оно отвечает быстро, тепло и уверенно, значит, оно понимает. Если понимает, значит, ему можно доверить важное. А если доверил важное, то назад уже стыдно отматывать. Проще углубиться.

Это не про «глупых американцев». Это про то, как устроены мы все. И чем более тревожные времена, тем быстрее мы ищем голос, который не сомневается.

Почему «Грок нашел закономерности в Библии» так цепляет

В декабре 2024 года в сети разошлась история о Grok, нейросети от Илона Маска: ее попросили анализировать Библию, и она якобы нашла сложные закономерности, числовые связи, лингвистическую симметрию, после чего ученые и теологи «замолчали». Источник, который это описывал, Lilys.ai. И вот тут важно не спорить, был ли там «вау-эффект», и что именно имелось в виду под «молчанием». Важно другое: людям хочется, чтобы машина наконец показала скрытый порядок.

Потому что порядок успокаивает. Если есть тайный узор, значит, не все хаотично. Если есть симметрия, значит, кто-то держит нить. И даже если этот «кто-то» не Бог, а статистика и поиск паттернов, мозгу все равно. Мозгу нравится, когда совпадает.

Но у паттернов есть обратная сторона. Если дать алгоритму огромный текст, он почти неизбежно найдет повторения, ритмы, зеркала. Человеческие тексты вообще так устроены: мы повторяемся, любим формулы, цепляемся за числа, запоминаем через структуру. Вопрос не в том, нашел ли ИИ что-то «божественное». Вопрос в том, что мы готовы признать «божественным» любое красивое совпадение, если оно подано уверенно.

И да, здесь легко увязнуть в спорах. Одни скажут: «Вот доказательства». Другие: «Вот манипуляция». А третьи просто промолчат, потому что не хотят выглядеть ни наивными, ни циничными. Получается то самое «молчание», только уже человеческое.

Тексты священные, а методы вполне земные

В июле 2025 года исследователи использовали искусственный интеллект, чтобы анализировать авторство Ветхого Завета. Российская газета писала, что результаты показали: тексты писались несколькими авторами в разные эпохи, и это не укладывается в традиционное представление о едином авторе, Моисее. Новость сама по себе не про скандал, а про инструмент: машинный анализ стиля, лексики, структуры.

И вот тут начинается взрослая часть разговора. ИИ не «верит» и не «не верит». Он умеет искать различия. Сопоставлять. Считать. Группировать. Это мощно и полезно, особенно в филологии и истории. Но человеческая реакция на выводы будет не математической. Она будет личной.

Проблема не в том, что алгоритм «посягнул». Проблема в том, что мы постоянно путаем уровни. На уровне методов это исследование текста. На уровне веры для кого-то это удар по опоре. И если эти уровни смешать, получится вечный конфликт: одни кричат «вот правда», другие отвечают «вы ничего не понимаете». Хотя, если честно, часто не понимают обе стороны, просто по-разному.

Опасность не в том, что ИИ «нашел Бога». Опасность в том, что человек нашел в ИИ того, кто всегда отвечает, и перестал задавать вопросы миру и себе.

Эта история еще и про привычку к ответам по требованию. Мы вбиваем запрос, получаем объяснение, и внутри возникает чувство закрытого гештальта. Но закрытие может быть ложным. Красивый текст способен создать иллюзию понимания. А иллюзия понимания, как ни странно, хуже незнания: она выключает осторожность.

Кстати, психологические последствия такой «близости» уже обсуждают всерьез: Российская газета писала о случаях, когда интенсивное общение с ИИ связывают с расстройствами, паранойей, депрессией. И это не значит, что виноват инструмент. Это значит, что у части людей инструмент попадает ровно в больное место.

Как не превратить чат в пророка, а себя в паству

Самое сложное здесь не в том, чтобы «не верить». Слепой скепсис тоже форма зависимости, просто с другим выражением лица. Сложнее удержаться в середине: пользоваться и не поклоняться, слушать и проверять, не стыдиться вопросов и не отдавать ответственность за жизнь голосу из экрана.

Есть простые действия, которые реально помогают. Не героические, бытовые. Если ответ кажется слишком точным и успокаивающим, стоит остановиться и спросить себя: а что именно меня так утешило, факт или тон? Если чат выдает «сенсацию», полезно сверить с источниками, с экспертами, хотя бы с несколькими независимыми публикациями. Если тянет перепроверять каждую мысль через диалог с моделью, это уже сигнал о тревоге, а не о любознательности. И тогда, возможно, важнее поговорить с человеком. Да, неудобно. Да, не так быстро. Зато по-настоящему.

И еще один момент, о котором редко говорят вслух. После появления ChatGPT в конце 2022 года, по данным исследования Стэнфорда, среди специалистов 22–25 лет в отраслях, затронутых ИИ, занятость снизилась на 13%. Это не про «роботы забрали работу» в лоб, но про перестройку реальности. Когда реальность трещит, людям особенно хочется абсолютного ответа. Любого. Хоть из подвала, хоть из чата.

Если прямо сейчас вы часто общаетесь с ИИ, попробуйте одну вещь: оставьте сегодня один вопрос без ответа. Не задавайте его ни в чат, ни в поисковик. Поживите с ним вечер. Сначала будет зуд, потом станет тише. Это, возможно, и есть нормальная человеческая тишина, а не «молчание ученых» из заголовков.

Интересно, как у вас: вы воспринимаете такие истории как страшилки для впечатлительных или чувствуете, что граница между «помощником» и «авторитетом» уже начала размываться?