Изображение: recraft Новое научное исследование показало, что при длительном взаимодействии агентов искусственного интеллекта риск может формироваться на уровне всей системы, даже если каждый отдельный агент действует строго в рамках заданных правил. Опасность возникает не из-за сбоя или злоупотребления, а из-за самой структуры взаимодействия, накопления обратных связей и способов координации между агентами. Работа выполнена учёными Института открытых коммуникационных систем им. Фраунгофера и посвящена анализу поведения агентного ИИ после развертывания в сложных средах. Исследование исходит из того, что основная часть рисков проявляется не на этапе проектирования, а позже, когда агенты начинают адаптироваться, реагировать на сигналы среды и учитывать действия друг друга. Авторы рассматривают риск как системное свойство. Отдельные агенты могут корректно следовать политике, локальным целям и ограничениям. При этом коллективное поведение, формирующееся со временем, способно затронуть круп