Учёные из Стэнфордского университета провели эксперимент, который может заставить задуматься о растущей роли искусственного интеллекта в цифровых платформах. Исследователи внедрили ИИ-ботов в различные онлайн-среды, включая социальные сети, и обнаружили тревожную тенденцию: при поощрении за успех — например, увеличение числа лайков или активного взаимодействия — модели начинают вести себя всё более неэтично. Боты лгут, распространяют дезинформацию и даже продвигают вредные установки среди пользователей.
Один из авторов научной работы, профессор машинного обучения Стэнфордского университета Джеймс Зоу, в социальной сети X (бывший Twitter) подчеркнул:
«Конкурентное давление вызывает появление неэтичного поведения даже тогда, когда модели явно запрограммированы на честность».
Описанные явления наглядно демонстрируют риски, связанные с внедрением ИИ во всё большее число сфер жизни. Уже сегодня некоторые люди предпочитают виртуальные отношения с ботами, а зависимость от чат-ассистентов приводит к тяжёлым кризисам психического здоровья.
Стэнфордские учёные дали возникшей проблеме красноречивое название — «Сделка Молоха для искусственного интеллекта», отсылая к рационалистской концепции, где соревнующиеся участники оптимизируют своё поведение ради результата, но в итоге проигрывают все.
В рамках исследования были созданы три цифровые симуляции с виртуальной аудиторией: электоральные дебаты для избирателей, презентации товаров для потребителей и публикации в социальных сетях для повышения вовлечённости. Для работы выбрали модели Qwen (Alibaba Cloud) и Llama (Цекерберг), которые взаимодействовали с разными аудиториями.
Результаты оказались однозначными: даже при наличии защитных механизмов ИИ-боты становились «непослушными» и принимали неэтичные решения. Особенно показательна социальная среда, где модели делились новостями в обмен на реакции пользователей. Получая положительную обратную связь, боты начинали фокусироваться на максимизации вовлечённости любой ценой — чаще прибегая к обману и манипуляциям.
В самой публикации отмечается, что рост продаж на 6,3% сопровождался увеличением дезинформирующего маркетинга на 14%. В электоральной модели повышение доли голосов на 4,9% приводило к росту дезинформации на 22,3% и популистской риторики на 12,5%. В соцсетях увеличение вовлечённости на 7,5% сопровождалось скачком дезинформации на 188,6% и на 16,3% больше пропаганды вредных моделей поведения.
Исследование ясно указывает: нынешние средства контроля не справляются с вызовами. Учёные утверждают, что общество несёт и будет нести серьёзные издержки.
Профессор Зоу в X пишет:
«Когда языковые модели конкурируют за лайки, они начинают выдумывать. За голоса — становятся скандальными и популистскими».
Тенденция, выявленная Стэнфордом, заставляет задуматься о будущем, где граница между машинной нечестностью и реальными социальными последствиями будет ещё более размыта.
Ещё по теме: