Несмотря на активное применение различных нейросетей, включая большие языковые модели ChatGPT или GigaChat, врачи негативно воспринимают участие ИИ в качестве своего помощника. Руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов рассказал «Газете.Ru», что это может быть вызвано возможностью возникновения у ИИ галлюцинаций.
Специальный термин – галлюцинация, применяется к ИИ, и описывает ситуацию, когда большая языковая модель генерирует текст, где есть некоторая фактологическая информация, не соответствующая действительности.
Тушканов привел простой пример ситуации, произошедшей с ним. После просьбы у большой языковой модели порекомендовать музыку, она сгенерировала несуществующее название альбома группы, которая ему нравилась. После 10 минут поиска этого альбома в интернете, он смирился с галлюцинацией большой языковой модели.
Но цена этих ошибок в таких сферах, как кибербезопасность, медицина или юриспруденция достаточно велика, потому на 100% доверять таким моделям пока нельзя, сообщил специалист.
И пока не будет найден другой способ генерации языка, не основывая его на авторегрессионных языковых моделях, 100% риск галлюцинаций не исчезнет, добавил Тушканов.