Исследователи из Университета Карнеги-Меллона выявили интересную закономерность в поведении искусственного интеллекта. Оказалось, что чем лучше нейросеть умеет логически мыслить, тем менее охотно она сотрудничает с пользователями. Понимание значения такого открытия особенно важно сейчас, когда все больше людей обращаются к искусственному интеллекту за советом в личных вопросах и конфликтных ситуациях. Поведенческие установки таких систем могут влиять на решения тех, кто к ним прислушивается. Докторант Юйсюань Ли и профессор Хирокадзу Широдо изучали сходства между работой нейросетей и человеческим мышлением. Они провели эксперименты с использованием экономических игр, которые обычно применяются для оценки склонности к сотрудничеству. Результаты оказались неожиданными. Когда модель GPT-4o принимала решение быстро и интуитивно, в 96 процентах случаев она выбирала сотрудничество. Однако когда ту же самую нейросеть просили тщательно обдумать свое решение, ее готовность к кооперации снижалас
Ученые обнаружили, что искусственный интеллект может быть опасен для общества
5 ноября 20255 ноя 2025
1 мин