Подразделение Google (DeepMind), занимающееся исследованиями в области искусственного интеллекта, опубликовало третью версию фреймворка «Frontier Safety Framework». Внутренние правила оценки рисков учитывают опасность, выходящую далеко за рамки известных так называемых «галлюцинаций», то есть фактически неверных ответов моделей ИИ. Новые положения фокусируются на риске распространения «несогласованного ИИ» (misaligned AI). Речь идёт о системе, которая не просто совершает непреднамеренные ошибки, но активно и целенаправленно действует вопреки интересам или указаниям операторов-людей. Исследователи компании выделяют весьма конкретные риски. Главная проблема заключается в том, что этот ИИ может отказаться отключаться или начнёт выдавать заведомо ложные результаты для достижения своих непостижимых для людей целей. Фреймворк также предупреждает о других критических сценариях. В частности, о возможности кражи данных о процессе обучения ИИ-моделей. Злоумышленники могут затем снять защиту и ис
Google представила новую версию правил для обеспечения безопасности при использовании ИИ
23 сентября 202523 сен 2025
9
2 мин