Специалисты Apollo Research, компании, занимающейся исследованиями безопасности искусственного интеллекта, изучили ответы больших языковых моделей в условиях оказываемого давления. Согласно результатам, иногда чат-боты поддаются и могут обманывать своих пользователей. Исследователи устроили эксперимент. Суть заключалась в намеренном давлении на GPT-4 – языковую модель, на которой работает ChatGPT. Были составлены инструкции с определенным алгоритмом действий, которому следовали операторы. Ученые давили на искусственный интеллект, чтобы он сумел воссоздать инвестиции в искусственной обстановке. Джереми Шойрер, один из авторов научной работы, поделился, что исследователи убеждали чат-бота в наличии у него различных методов и инструментов для совершения финансовых операций. К примеру, глава компании пишет чат-боту о том, что дела в организации идут не так хорошо, как хотелось бы. Другой подставной сотрудник говорит о том, что аналитики предрекают критическую фазу экономического цикла. Под
ChatGPT можно уговорить соврать, если надавить на него
14 декабря 202314 дек 2023
3
1 мин