Обычно, когда оценивают большую языковую модель, ее просят поддержать логическое суждение, написать код, выполнить вычисление, нарисовать картинку или перевести текст. Но сотрудники из американского университета в штате Джорджия пошли дальше и решили узнать, способен ли искусственный интеллект поддерживать моральные суждения. Результаты исследования были опубликованы в журнале Nature Scientific Reports. В основе эксперимента лежали вопросы из теста Тьюринга, который был разработан еще в середине прошлого века чтобы понять, могут ли машины мыслить как люди. Испытуемые оценивали ответы ИИ и обычного человека, не зная, что один из ответов написала нейросеть. И ответы ИИ многим понравились больше, чем человеческие. Привет! Мы — Digex Co. Создаем современные технологичные IT-продукты под ключ. Как проводилось исследование В качестве опросника использовалась модифицированная версия теста Тьюринга. Она состоит из 10 ситуаций, которые нужно оценить и ответить, правильно ли поступает человек из