Найти в Дзене

аконец, задано, что университет хочет сохранить инновационность: онприз

наёт полезность ИИ и не стремится «выжечь» его из процессов. Цель – не запрет, а управляемость: чтобы стало понятно, где ИИ допустим свободно, где нужен повышенный контроль и проверка человеком, а где применение недопустимо или требует отдельного согласования. В рамках кейса именно эту управляемость команды должны предложить в простой и понятной форме, рассчитанной на быстрое внедрение. Допущения что командам разрешено принять самостоятельно Команды решают кейс без доступа к внутренним документам и статистике, поэтому допускается использовать условные значения и типовые примеры. Команда вправе сама составить перечень сценариев применения ИИ, но для сопоставимости рекомендуется ограничиться 10–12 сценариями, распределив их между обучением, исследованиями и управлением. Разрешено считать, что часть сценариев относится к «обычным» и низкорисковым, часть – к средним, а часть – к повышенно рискованным, требующим отдельного порядка действий. Команда может принять простую трёхуровневую модель

наёт полезность ИИ и не стремится «выжечь» его из процессов. Цель – не

запрет, а управляемость: чтобы стало понятно, где ИИ допустим свободно, где

нужен повышенный контроль и проверка человеком, а где применение

недопустимо или требует отдельного согласования. В рамках кейса именно эту

управляемость команды должны предложить в простой и понятной форме,

рассчитанной на быстрое внедрение.

Допущения что командам разрешено принять самостоятельно

Команды решают кейс без доступа к внутренним документам и статистике,

поэтому допускается использовать условные значения и типовые примеры.

Команда вправе сама составить перечень сценариев применения ИИ, но для

сопоставимости рекомендуется ограничиться 10–12 сценариями, распределив

их между обучением, исследованиями и управлением. Разрешено считать, что

часть сценариев относится к «обычным» и низкорисковым, часть – к средним, а

часть – к повышенно рискованным, требующим отдельного порядка действий.

Команда может принять простую трёхуровневую модель рисков в формате

«светофора»: зелёный уровень означает, что применение допустимо при

соблюдении базовых правил; жёлтый уровень означает, что применение

допустимо при дополнительных мерах, например, обязательной проверке

человеком или ограничении данных; красный уровень означает, что

применение недопустимо либо возможно только после согласования по

упрощённой процедуре. Допускается, что для красного уровня действует

короткий чек-лист из 5–7 вопросов и простая схема согласования с понятными

ролями и сроками.

Команда вправе предложить минимальный «микро-реестр» применений ИИ:

не полноценную систему, а таблицу, где фиксируются самые важные сведения,

необходимые для управляемости. В качестве обязательных полей допускается

принять назначение/сценарий, где используется ИИ, кто владелец или

ответственный, уровень риска и наличие согласования для красного уровня.