Ты спрашиваешь у нейронки рабочую инфу - закон, дату, цифру. Она отвечает уверенно, без тени сомнения. Только проблема: всё неправильно. Переспрашиваешь - снова бред, только другими словами. Знакомо ..? А теперь представь, что это не твой чат, а бот поддержки банка, который врёт клиентам про остатки на счетах Или врач, которому «лень смотреть снимок», доверяет ассистенту, а тот придумывает диагноз. Бесит ... и страшно одновременно 🙈 OpenAI недавно показали, почему так происходит. Модели учат как школьника: за угаданный ответ ставят балл, за честное «не знаю» - ноль. Выгоднее врать с видом эксперта. В эксперименте GPT-4 отвечал уверенно на фактологические вопросы, каждый раз по-разному, но всегда неправильно. Уверенность - 100%, точность - 0. В бизнесе это выглядит так же. У менеджера спрашиваешь статус сделки - он уверенно: «Закроем в этом месяце». В CRM пусто, Excel не обновлён, контакт потерян. Уверенность - железобетон, результат - ноль. Пока ты веришь словам, а не системе,
Ты спрашиваешь у нейронки рабочую инфу - закон, дату, цифру
13 сентября 202513 сен 2025
1 мин