Представьте: вы вставили в презентацию для клиента цитату из исследования Гарварда. Год, авторы, выводы — всё чётко. Клиент загуглил источник прямо на встрече. Страница не существует. Исследование не существует. Вы существуете — и это единственная проблема в этой комнате. Это не гипотетическая история. Это то, что происходит с людьми, которые доверяют нейросетям без проверки. Галлюцинации нейросети — это уверенные, связные, убедительно оформленные выдумки. Не ошибки в расчётах, не опечатки. Именно выдумки: несуществующие законы, статистика из воздуха, ссылки на публикации которых нет, цитаты авторов которые этого не говорили. Механизм простой: языковая модель не «знает» факты. Она предсказывает наиболее вероятное продолжение текста. Когда ей не хватает данных — она не останавливается и не говорит «не знаю». Она достраивает правдоподобное продолжение. Это её природа. GPT-5.1 галлюцинирует реже, чем старые версии. Claude 4.5 Sonnet — тоже. Gemini 3 Pro — тоже. Но «реже» не означает «ник
Галлюцинации нейросетей: как поймать GPT, Claude и Gemini на вранье и не опозориться
20 апреля20 апр
29
3 мин