Найти в Дзене
IT сквозь ИИ

Как устроен нейросетевой фейк: почему ИИ ошибается в числах и именах.

Оглавление

Если вы когда-нибудь пользовались нейросетью вроде ChatGPT и внезапно заметили в тексте, что «Пастернак получил Нобелевскую премию в 1961 году» (хотя он получил её в 1958-м), или что «у Марса два спутника — Тритон и Деймос» (Тритон вообще-то спутник Нептуна), — перед вами типичный пример так называемой галлюцинации ИИ.

Кажется странным: ведь это же искусственный интеллект, он должен всё знать, правда? Почему он делает такие нелепые ошибки — и при этом пишет их с такой уверенностью?

Яркий пример того ⬆️ как ИИ допускает ошибки при генерации изображений.
Яркий пример того ⬆️ как ИИ допускает ошибки при генерации изображений.

Искусственный интеллект не знает, он просто угадывает

Нейросеть — это не энциклопедия и не база знаний. Она не «помнит» и не «знает» в привычном смысле. Её задача — предсказать следующее слово или фразу на основе вероятности, исходя из миллиардов текстов, на которых она обучалась.

Представьте: вы начинаете фразу «Николай Васильевич…» — и в голове автоматически всплывает «Гоголь». Примерно так же работает и ИИ, только масштабнее. Он анализирует, какие слова чаще всего следуют за другими, и выстраивает наиболее вероятное продолжение.

Но есть важное отличие: он не умеет отличать правду от неправды. Для него нет разницы между «Марс — четвёртая планета от Солнца» и «Марс — спутник Юпитера», если оба утверждения встречались в текстах. Он просто видит, что в похожем контексте раньше стояло такое-то число, такое-то имя — и вставляет их.

Почему чаще всего ошибки — в числах и именах?

Потому что именно такие данные — имена, даты, названия, цифры — требуют фактологической точности, а не просто «похоже звучащего» контекста.

Если вы просите ИИ рассказать о великом советском учёном — лауреате Нобелевской премии, — он может начать с вполне подходящей интонации. Но фамилию вставит не ту, или год перепутает. Почему? Потому что в обучающих текстах он видел десятки подобных конструкций, и просто «собрал» самую вероятную комбинацию. Проверить её он не способен.

Никакого «внутреннего фильтра» или чувства правды у нейросети нет. Она не думает: «Подождите, ведь Тритон — это спутник Нептуна, а не Марса». Она лишь строит фразу, которая выглядит убедительно.

Кто попадает в зону риска?

В первую очередь — журналисты, авторы, копирайтеры, редакторы. То есть все, кто работает с текстами, особенно в спешке. Возникает соблазн: вставить абзац, сгенерированный ИИ, не перепроверяя каждое имя, каждую дату. А дальше — фейк начинает жить своей жизнью. Он выглядит гладким, умным, авторитетным. Но на поверку — это просто случайный набор слов, собранный по шаблону.

Что с этим делать?

Рецепт один: проверять всё вручную, особенно числа, даты, фамилии, исторические события. Не использовать ИИ как источник фактов — только как помощника по стилю, структуре или формулировкам.

Нейросеть хорошо справляется с формой, но не с содержанием. Её сила — в языке, а не в смысле. Это инструмент для черновика, но не для финального текста.

Вывод: искусственный интеллект не врёт — он просто не умеет отличать правду от вымысла. И пока у него нет встроенного чувства реальности, ответственность за достоверность остаётся на человеке. Особенно если вы пишете для других людей.

Ставьте лайк, если понравилась статья. Подписывайтесь на наш канал. Спасибо!🙏