Порой кажется, что нейросети развились настолько, что обрели близкий к человеческому разум. Во всяком случае, ответы ChatGPT и ему подобных систем выглядят так, будто их дает живой собеседник. Иллюзия очеловечивания ИИ довольно опасна. В феврале мошенники при помощи технологии deepfake выманили больше 25 миллионов долларов у финансового работника из Гонконга. И это далеко не единственный случай — хотя и самый яркий. Директор языковой лаборатории, заведующая кафедрой лингвистических дисциплин Университета Западной Австралии Селеста Родригес Лоуро объяснила на страницах The Conversation, за счет чего нейросети кажутся настолько убедительными, при том что на поверку качество выдаваемой ими информации зачастую не выдерживает никакой критики. Причина кроется в нас самих. Мы запрограммированы на антропоморфизацию различных нечеловеческих существ, с которыми взаимодействуем. До недавних пор это были в основном животные, теперь к ним присоединились большие языковые модели (LLM). Корень проблем