Исследователь из НИУ ВШЭ в Санкт-Петербурге Андрей Терников разработал пошаговую схему безопасного внедрения больших языковых моделей (LLM) в университетах. Методика помогает выстроить работу так, чтобы снизить риски, связанные с неточными ответами ИИ и нарушениями конфиденциальности. Об этом «Жуковский.Life» сообщили в пресс-службе НИУ ВШЭ. Учёный использовал диаграмму Исикавы («рыбью кость»), чтобы разложить проблему на шесть групп факторов: «Материалы», «Методы», «Машины», «Среда», «Люди», «Измерения». Для каждой ветви он описал типичные сбои и предложил меры профилактики. «Так, проблемы с приватностью данных можно решить, внедрив надежные протоколы безопасности и методы анонимизации. Технические ограничения частично решаются за счет облачных сервисов или открытых решений, а трудности во взаимодействии людей с искусственным интеллектом — за счет внедрения понятных правил и обучения», — отмечает исследователь. Практическая логика внедрения, по его словам, строится на четырёх шагах: б
Учёный предложил вузам схему безопасного внедрения ИИ
20 ноября 202520 ноя 2025
1 мин