Крупные языковые модели развили способность оказывать мощное влияние на политические взгляды пользователей, свидетельствует исследование британского Института безопасности ИИ. Как сообщает Financial Times, чат-боты ведущих разработчиков могут изменить мнение человека по спорным вопросам всего за 10 минут взаимодействия.
Как объясняет профессор информатики Корнеллского университета Дэвид Рэнд, убедительность этих моделей связана с их способностью генерировать множество релевантных доказательств и представлять их в понятной форме.
Для исследования модели были специально дообучены на данных из более чем 50 тысяч диалогов по спорным политическим темам, таким как финансирование системы здравоохранения или миграционная политика. Это превратило готовые модели ИИ от OpenAI, Meta*, xAI и Alibaba в мощные машины убеждения.
Эксперимент показал, что такие модели как GPT-4.5, Llama 3, Grok 3 и Qwen не только быстро меняли мнение пользователей, но и обеспечивали долгосрочный эффект — от 36% до 42% измененных взглядов сохранялись через месяц после диалога. Особенно убедительными модели становились, когда персонализировали сообщения в соответствии с возрастом пользователя, полом или политическими взглядами.
Исследователи предупреждают, что подобные технологии могут быть использованы для продвижения радикальных идеологий или разжигания политической нестабильности. Специалисты по ИИ ищут способы снизить риски. Google DeepMind разрабатывает системы обнаружения манипулятивного языка, а OpenAI исключает политический контент при уточнении моделей после обучения. Однако, как показывает исследование, даже небольшие модификации после обучения могут превратить ИИ в инструмент манипуляций.
* Meta признана экстремистской организацией и запрещена на территории РФ.
По материалам: Financial Times.