Новосибирск. 18 апреля. ИНТЕРФАКС - Современные языковые модели могут пройти тест Тьюринга и выдать себя за настоящего человека, но пока в ограниченных областях, заявила ведущий научный сотрудник лаборатории анализа информационных ресурсов (Научно-исследовательский вычислительный центр) МГУ Наталья Лукашевич. "В каком-то ограниченном наборе вопросов модели уже достаточно долгое время могут продержаться, провести диалог", - сказала она журналистам в Новосибирске в пятницу в кулуарах международной конференции по искусственному интеллекту и естественному языку "AINL-2025". Лукашевич отметила, что в ходе одного из экспериментов исследователи даже приписали тексты живых комментаторов из сети искусственному интеллекту и наоборот - порождения языковых моделей сочли произведениями людей, поскольку тексты людей были хуже качеством. В то же время, текст, написанный нейросетью, может в любой момент "сломаться", что может помочь понять его искусственное происхождение: например, в студенческой курс