👉 нейросети иногда… врут.
Уверенно. Логично. Красиво. И абсолютно неправдиво. Это явление называется галлюцинацией ИИ — и оно опаснее, чем кажется. ИИ не знает, где правда, а где нет.
Он не проверяет факты, он предсказывает, какое слово логично поставить следующим. Поэтому: ИИ не пытается обмануть — он пытается быть полезным, даже если ответа нет. Некоторые чат-боты в тестах генерировали опасные рекомендации:
— советовали лекарства, которые нельзя совмещать;
— придумывали «диагнозы», которых не существует. Для ИИ важно угадать структуру текста, а не здоровье человека. Нейросети любят создавать: И при этом — уверенно называют дату, издателя и страницу. ИИ может написать программный код, который выглядит отлично, но не работает.
Хуже того — он объясняет, почему он точно работает.
Хотя это не так. В США адвокат подал в суд документы, написанные ИИ.
Проблема? Половина цитируемых дел никогда не существовала.
Их просто выдумала модель — и сделала это убедительно. Галлюцинации ИИ мо