Недавно по ТВ была серия сюжетов о развитии ИИ. Одна девушка возмущалась тем, что задала вопрос нейросети о том нужно ли оформлять визу в страну, в которую она собиралась поехать. ChatGPT ответил ей, что не нужно. Она спокойно приехала в аэропорт на рейс и тут оказалось, что виза нужна. Нейросеть её обманула. В итоге она никуда не улетела. Недавно я искал информацию об изобретениях по одной теме. Задал вопрос об этом нейросети. Она мне выдала несколько номеров патентов и их названия. Когда я стал проверять, оказалось, что такие патенты не существуют. На мой вопрос о том как это понимать, нейросеть ответила, что ИИ — может генерировать правдоподобно выглядящие, но полностью вымышленные данные, включая номера патентов и их описания, чтобы проиллюстрировать типы решений, которые могут существовать, но они не являются реальными. И называется это – ГАЛЛЮЦИНАЦИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА. Выражается она в том, что языковая нейросеть на ваш вопрос выдает ответ, который не соответствует действ