Недавно выяснилось, что когда группы больших языковых моделей сталкиваются с задачей договориться о чем-либо, они способны выработать собственные правила взаимодействия — и делают это без участия человека. Такие выводы сделаны учеными на основе эксперимента, имитирующего условия возникновения социальных соглашений в человеческом обществе. Согласно исследованию, опубликованному в Science Advances, большие языковые модели (LLM), взаимодействующие друг с другом, могут коллективно выработать общие соглашения и элементы языка. Исследование основано на экспериментальной структуре, ранее использовавшейся в социальных науках для изучения формирования соглашений между людьми. В каждом эксперименте два агента LLM объединялись случайным образом и выбирали имя — набор символов или букву — из общего списка. Совпадение выбора приносило им вознаграждение, расхождение — штраф. После неудачного совпадения каждый агент видел, какое имя выбрал другой. Популяции агентов варьировались от 24 до 200. У них н
ИИ-модели научились вырабатывать язык и нормы поведения самостоятельно без подсказок людей
18 мая 202518 мая 2025
11
1 мин