Хотя в конце 2024 года могло показаться, что хайп по поводу ИИ в целом и полноценного искусственного интеллекта (AGI) в частности начал сходить на нет, начало 2025 года принесло с собой новую волну ажиотажа. Поводом стало заявление основателя OpenAI Сэма Альтмана о том, что первая волна ИИ-агентов «вольется в ряды офисных работников уже в этом году, навсегда изменив технологический ландшафт». Буквально неделю спустя «спецгруппа моделирования угроз» (дословно — «красная команда») компании Microsoft опубликовала статью, в которой члены группы делятся выводами, сделанными в ходе тестирования более чем 100 продуктов компании, использующих генеративный ИИ. Примечательно, что один из выводов так и назван: «Большие языковые модели усиливают существующие риски безопасности и создают новые». Есть в этом какая-то ирония, согласитесь. Для тех, кто еще не знаком с понятием «спецгруппа моделирования угроз»: речь идет об организации отдельной группы специалистов, пытающихся вскрыть уязвимости систем
Полностью обезопасить ИИ-системы невозможно: языковые модели усиливают существующие риски безопасности и создают новые
24 января 202524 янв 2025
11
4 мин