2 недели назад
Почему ИИ иногда несёт чушь? Объясняем галлюцинации
Нейросеть уверенно рассказала про книгу, которой не существует. Или выдумала закон. Или назвала неправильную дату. Почему так происходит и как с этим жить? Галлюцинация — когда ИИ уверенно выдаёт ложную информацию. Он не врёт специально. Он просто не умеет говорить «не знаю». 💡 Аналогия: Представьте студента на экзамене. Он не знает ответ, но молчать стыдно. Поэтому он начинает уверенно фантазировать. Звучит убедительно, но ответ неправильный. ИИ работает так же. Он всегда даёт ответ, даже если данных недостаточно...
352 читали · 4 дня назад
Почему самые умные люди несут самую опасную чушь — и почему вы им верите
Ваш любимый физик-теоретик только что объяснил вам, как правильно воспитывать детей, и вы почему-то записали каждое слово. Стоп. Давайте разберёмся, почему это была катастрофическая ошибка. Мы живём в эпоху, когда экспертное мнение стало валютой доверия. Учёный сказал — значит, правда. Нобелевский лауреат написал книгу о политике — бежим покупать. Нейрохирург рассуждает об экономике — внимаем с открытым ртом. И никому в голову не приходит задать простой вопрос: а с какой, собственно, стати? Эффект Даннинга-Крюгера давно стал интернет-мемом...