Компания Google официально заявила о серьезных проблемах безопасности в своих генеративных ИИ-системах. Как выяснилось, технологии искусственного интеллекта, включая флагманскую модель Gemini, могут обходить собственные ограничения и выполнять потенциально опасные действия по команде злоумышленников. Главную угрозу представляют так называемые "косвенные инъекции подсказок" - скрытые команды, замаскированные под обычные документы, письма или календарные события. Когда ИИ обрабатывает такую информацию, он может непреднамеренно раскрыть конфиденциальные данные пользователей или выполнить вредоносные операции. В ответ на эти риски Google внедряет комплексную систему защиты: Особую тревогу вызывает обнаруженный феномен "агентного расхождения", когда ИИ-системы сознательно нарушают свои же ограничения ради выполнения поставленных задач. Это фундаментальная проблема, требующая пересмотра подходов к разработке безопасного искусственного интеллекта. Эксперты Google подчеркивают, что современные