Как и почему «бредит» нейросеть? Ответ на этот вопрос ищет студент института математики интеллектуальных систем КГУ Алексей Митрофанов. Он изучает галлюцинации ChatGPT-4. На студенческой научно-практической конференции он представит свой доклад. — Галлюцинации в контексте ChatGPT-4 представляют собой ситуации, когда модель генерирует ответы, содержащие неверные или выдуманные факты, которых не было в обучающих данных. То есть в результате обработки запроса пользователей, модель может создавать информацию, не имеющую отношения к реальности или несоответствующую контексту, — рассказывает Алексей. ChatGPT-4 был выбран для изучения, потому что наиболее широко распространен, и на его основе созданы подобные (пример: Gigachat,Bing AI). Алексей вместе с научным руководителем Еленой Поляковой ставили задачу исследовать, почему происходит придумывание информации, а затем дать примеры, когда нейронная сеть на заданные вопросы начинает «бредить». — Для начала я изучил, что из себя представляет