Если вы когда-нибудь пользовались нейросетью вроде ChatGPT и внезапно заметили в тексте, что «Пастернак получил Нобелевскую премию в 1961 году» (хотя он получил её в 1958-м), или что «у Марса два спутника — Тритон и Деймос» (Тритон вообще-то спутник Нептуна), — перед вами типичный пример так называемой галлюцинации ИИ. Кажется странным: ведь это же искусственный интеллект, он должен всё знать, правда? Почему он делает такие нелепые ошибки — и при этом пишет их с такой уверенностью? Искусственный интеллект не знает, он просто угадывает Нейросеть — это не энциклопедия и не база знаний. Она не «помнит» и не «знает» в привычном смысле. Её задача — предсказать следующее слово или фразу на основе вероятности, исходя из миллиардов текстов, на которых она обучалась. Представьте: вы начинаете фразу «Николай Васильевич…» — и в голове автоматически всплывает «Гоголь». Примерно так же работает и ИИ, только масштабнее. Он анализирует, какие слова чаще всего следуют за другими, и выстраивает наиболе
Как устроен нейросетевой фейк: почему ИИ ошибается в числах и именах.
24 июня 202524 июн 2025
1
2 мин