Исследовательская группа из Кембриджского университета и Google DeepMind разработала первый научно обоснованный метод оценки и формирования «личности» у больших языковых моделей (LLM), лежащих в основе популярных чат-ботов, таких как ChatGPT. Используя психологические тесты, обычно применяемые для оценки личности человека, учёные показали, что ИИ не только имитирует человеческие черты характера, но и что его «личность» можно надёжно измерить и точно сформировать. В ходе исследования было установлено, что крупные модели наиболее точно эмулируют человеческие черты личности. Эти черты можно изменять с помощью запросов, влияя на то, как ИИ выполняет конкретные задачи. Авторы работы предупреждают, что формирование личности у модели может сделать чат-ботов более убедительными, что вызывает опасения по поводу манипуляций. Они призывают к срочному регулированию ИИ-систем для обеспечения прозрачности и предотвращения злоупотреблений. Учёные предлагают использовать разработанный ими набор данных
Кембридж и Google DeepMind предложили первый научный тест «личности» для нейросетей
3 января3 янв
5
1 мин