"ИИ выдаёт чушь" "Придумал судебную практику" "ChatGPT сослался на несуществующее решение" Слышали? Скорее всего да. Для справки: "галлюцинация" — это когда ИИ уверенно выдумывает факты, имена, нормы права которых нет. Но в большинстве случаев проблема не в ИИ, а в том КАК с ним работают. Вот основные ошибки которые приводят к галлюцинациям. На программе "Искусственный интеллект в юридической деятельности" учим: → Как выбирать правильную модель под задачу → Как формулировать промпты, которые работают → Как проверять галлюцинации → Как использовать ИИ безопасно 🎁 ЗАБРАТЬ ПОЛНУЮ ПРЕЗЕНТАЦИЮ ПО НЕЙРОСЕТЯМ ДЛЯ ЮРИСТАМ 🎁 📞 +7 (343) 253-00-96 📩 edulex@1pervomay.ru 🌐 1pervomay.ru/obuchenie 📲 Первомай в MAX
😡 ПОЧЕМУ ИИ "ВРЁТ" И КАК ПЕРЕСТАТЬ ПОЛУЧАТЬ ГАЛЛЮЦИНАЦИИ
27 марта27 мар
~1 мин