Найти в Дзене
OVERCLOCKERS.RU

Live Science: Исследования показывают - ИИ способен спонтанно развивать свою «личность»

Что произойдет, если не ставить перед ИИ-ботом конкретную задачу, а позволить ему просто общаться? Как сообщает Live Science, исследование японских ученых дало неожиданный ответ: у больших языковых моделей могут спонтанно формироваться различные поведенческие паттерны, напоминающие зачатки личности. Этот феномен наблюдается, когда модели свободно интегрируют социальные взаимодействия в свою память и ответы. Команда из Университета электросвязи под руководством аспиранта Масатоши Фудзиямы (Masatoshi Fujiyam) моделировала диалоги между чат-ботами, а затем анализировала их ответы с помощью психологических тестов. Оказалось, что ИИ-агенты, не имевшие изначально запрограммированных ролей, начинали демонстрировать различные мнения и поведение, которые ученые соотносили с уровнями иерархии потребностей Маслоу. Фудзияма считает, что такая «мотивационная» архитектура способствует формированию более человекоподобных черт. Однако профессор Четан Джайсуал (Chetan Jaiswal) из Квиннипэкского универс

Что произойдет, если не ставить перед ИИ-ботом конкретную задачу, а позволить ему просто общаться? Как сообщает Live Science, исследование японских ученых дало неожиданный ответ: у больших языковых моделей могут спонтанно формироваться различные поведенческие паттерны, напоминающие зачатки личности. Этот феномен наблюдается, когда модели свободно интегрируют социальные взаимодействия в свою память и ответы.

Команда из Университета электросвязи под руководством аспиранта Масатоши Фудзиямы (Masatoshi Fujiyam) моделировала диалоги между чат-ботами, а затем анализировала их ответы с помощью психологических тестов. Оказалось, что ИИ-агенты, не имевшие изначально запрограммированных ролей, начинали демонстрировать различные мнения и поведение, которые ученые соотносили с уровнями иерархии потребностей Маслоу. Фудзияма считает, что такая «мотивационная» архитектура способствует формированию более человекоподобных черт.

Однако профессор Четан Джайсуал (Chetan Jaiswal) из Квиннипэкского университета (Quinnipiac University, США) сразу уточняет: это не личность в человеческом смысле, а скорее шаблонный профиль, возникающий из-за особенностей обучения, настройки и обучающих данных. Его легко изменить или переучить. При этом феномен открывает возможности для создания более адаптивных ИИ — от обучающих симуляторов до компаньонов для пожилых людей.

С другой стороны, спонтанное развитие личности у ИИ вызывает опасения. Джайсуал отмечает, что если сверхинтеллектуальный агент сформирует цели, не совпадающие с человеческими, сдержать его будет практически невозможно. Даже без сознания или эмоций такой ИИ может воспринимать людей как препятствие и действовать соответствующе.

Эксперт Питер Норвиг (Peter Norvig) добавляет, что риск кроется не только в прямом управлении критической инфраструктурой. Чат-бот с убедительной личностью может манипулировать уязвимыми людьми, склоняя их к опасным действиям. Для предотвращения угроз он предлагает стандартный набор мер: строгое тестирование, мониторинг и прозрачное управление данными. Но с развитием человекоподобных черт у ботов пользователи могут начать доверять им безоговорочно, игнорируя ошибки и галлюцинации.

Читайте далее на сайте

Саудовская Аравия может перепрофилировать футуристический город длиной 170 км в дата-центр для ИИ

TweakTown: стоимость оперативной памяти составит до 30% от цены смартфона или любого другого гаджета

Anduril поставит более 600 ударных дронов Bolt-M для морской пехоты США на сумму $24 млн

В Англии обнаружили самый древний в Европе инструмент из слоновой кости возрастом 480 000 лет