Найти в Дзене
Mobile-review.com

Большие языковые модели реагируют на сильные эмоции: как чувства влияют на решения машин

Одной из проблем искусственного интеллекта, о которой задумывались задолго до того, как вычислительные мощности компьютеров смогли хотя бы немного приблизиться к необходимому для работы нейросети уровню производительности, был вопрос взаимодействия с человеческими эмоциями. Действительно, полная безэмоциональность «думающей» машины страшит не меньше, чем анализ эмоций на основании голой математической логики, а уж внезапное обретение машиной возможности взаимодействовать и испытывать эмоции вообще кажется худшим кошмаром. Тем не менее, похоже, что теперь, когда пошло реальное развитие такой вещи, как большие языковые модели (LLM), мы можем узнать, что именно третий вариант реален. Во всяком случае, исследователи из Института AIRI, ИСП РАН и Лаборатории искусственного интеллекта «Сбера» пришли к выводу, что сильные эмоции, испытываемые людьми, влияют на результаты их работы. Подробные результаты исследования будут представлены в декабре на NeurIPS 2024 в Ванкувере, но общие выводы уж

Одной из проблем искусственного интеллекта, о которой задумывались задолго до того, как вычислительные мощности компьютеров смогли хотя бы немного приблизиться к необходимому для работы нейросети уровню производительности, был вопрос взаимодействия с человеческими эмоциями.

Действительно, полная безэмоциональность «думающей» машины страшит не меньше, чем анализ эмоций на основании голой математической логики, а уж внезапное обретение машиной возможности взаимодействовать и испытывать эмоции вообще кажется худшим кошмаром.

Тем не менее, похоже, что теперь, когда пошло реальное развитие такой вещи, как большие языковые модели (LLM), мы можем узнать, что именно третий вариант реален. Во всяком случае, исследователи из Института AIRI, ИСП РАН и Лаборатории искусственного интеллекта «Сбера» пришли к выводу, что сильные эмоции, испытываемые людьми, влияют на результаты их работы.

Подробные результаты исследования будут представлены в декабре на NeurIPS 2024 в Ванкувере, но общие выводы уже были озвучены.

LLM стремятся учитывать человеческие предпочтения, но люди принимают решения, руководствуясь эмоциями и собственными убеждениями, что зачастую делает их поступки иррациональными и труднопредсказуемыми. Получается, что LLM обучаются на данных, которые создавались человеком, и могут сохранять эмоциональную предвзятость, а значит, потенциально возможно искажение логики при решении задач, требующих разработки стратегий.

В результате выяснилось, что модели разного размера и уровня выравнивания (alignment) по-разному подвержены влиянию эмоций: модели с открытым исходным кодом и меньшего размера часто менее точно понимают и имитируют эмоции, тогда как более мощные (такие как GPT-4) хоть и распознают эмоции, зачастую ведут себя строго рационально.

Однако эксперименты показали, что гнев может склонить даже такие модели к отклонению от рационального поведения. В кооперативных играх негативные эмоции чаще всего снижают готовность системы к сотрудничеству.

Модели, «испытывающие» грусть, как и люди, склонны делиться с другими. Однако если люди в состоянии страха готовы отдать больше, то поведение моделей в таких условиях остается непредсказуемым — эту эмоцию они «понимают» хуже всего.

Схожая картина наблюдается и при решении этических задач: счастье улучшает качество этических решений у большинства моделей, тогда как негативные эмоции снижают его.

Полный текст статьи "Пятница будущего: о том, как точные науки поправляют гуманитарные, а все соцсети движутся по одному пути" Константина Иванова из рубрики «Пятница будущего», рассказывающей о новинках и идеях в сфере техники и технологий на сайте https://mobile-review.com