С развитием искусственного интеллекта разработчики все чаще сталкиваются с определенными феноменами в развитии системы. Почему некоторые из них так схожи с человеческими? Фото: www.globallookpress.com На данный момент искусственный интеллект активно используют в различных сферах. Большие языковые модели, такие как ChatGPT или GigaChat активно применяют во всех областях. Однако некоторые специалисты относятся негативно к использованию нейросетей в своей работе. Особенно это касается работников в сфере медицины, кибербезопасности и юриспруденции. Такое отношение обусловлено возможным возникновением галлюцинаций у ИИ. Руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов рассказал в беседе с Газета.ру, что галлюцинация — это специальный термин, применяемый к нейросетям. Он описывает ситуацию, когда какая-либо языковая модель генерирует текст с фактическими ошибками. Такая информация зачастую не соответствует действительн
«Проблема фундаментальная»: раскрыта суть феномена «галлюцинаций» у нейросетей
3 марта 20243 мар 2024
66
1 мин