Тема ИИ сейчас на большом хайпе, и на самом деле есть много примеров, где это всё даёт впечатляющий результат. Мы сами внедряем и помогаем внедрять эти технологии. Однако всё ли так радужно и безоблачно? Как и у любой технологии, здесь есть немало проблем. Давайте я поделюсь своим и не только мнением. Проблема "китайской комнаты" Первое и важное: наши хайповые LLM (любые) — это "китайские комнаты", и они сильно подвержены влиянию качества данных, на которых их обучают. Сейчас появляется всё больше способов обмануть языковые модели при обучении и заставить принять любые непроверенные данные как факт. Большой проблемой технологии являются галлюцинации (придумывание фактов). Это приводит к тому, что нужно проверять информацию, которую вы получаете от языковой модели. Глобальных проблем в этом нет, кроме того, что люди начинают повально доверять ответам и никогда их не проверяют — а вот это уже может нести серьёзные риски. Риски обновлений моделей Есть большие проблемы с новыми версиями мо