Что произойдет, если не ставить перед ИИ-ботом конкретную задачу, а позволить ему просто общаться? Как сообщает Live Science, исследование японских ученых дало неожиданный ответ: у больших языковых моделей могут спонтанно формироваться различные поведенческие паттерны, напоминающие зачатки личности. Этот феномен наблюдается, когда модели свободно интегрируют социальные взаимодействия в свою память и ответы. Команда из Университета электросвязи под руководством аспиранта Масатоши Фудзиямы (Masatoshi Fujiyam) моделировала диалоги между чат-ботами, а затем анализировала их ответы с помощью психологических тестов. Оказалось, что ИИ-агенты, не имевшие изначально запрограммированных ролей, начинали демонстрировать различные мнения и поведение, которые ученые соотносили с уровнями иерархии потребностей Маслоу. Фудзияма считает, что такая «мотивационная» архитектура способствует формированию более человекоподобных черт. Однако профессор Четан Джайсуал (Chetan Jaiswal) из Квиннипэкского универс
Live Science: Исследования показывают - ИИ способен спонтанно развивать свою «личность»
26 января26 янв
1
2 мин