Добавить в корзинуПозвонить
Найти в Дзене
CISOCLUB

Кто решит за вас при ИИ?

В российском законодательстве может появиться норма, обязывающая сохранять за человеком последнее слово при использовании искусственного интеллекта в социально значимых областях — здравоохранении, судопроизводстве, образовании и общественной безопасности. Соответствующие предложения собраны в материалах правительства к будущему законопроекту о регулировании ИИ, а сам документ Минцифры должен быть передан на согласование к концу февраля. Член комитета Госдумы по информационной политике и федеральный координатор проекта «Цифровая Россия» Антон Немкин перечисляет риски, которые возникают без подобного требования. В начале февраля Reuters сообщало о реальных последствиях бесконтрольного применения ИИ в хирургии — навигационная система TruDi, применяемая в медицинском оборудовании, предположительно передавала хирургам неверные данные о положении инструментов во время операций на голове. В период с конца 2021 по ноябрь 2025 года травмы получили не менее десяти пациентов. Это уже не кейс из у
   Изображение: Plato Terentev (pexels)
Изображение: Plato Terentev (pexels)

В российском законодательстве может появиться норма, обязывающая сохранять за человеком последнее слово при использовании искусственного интеллекта в социально значимых областях — здравоохранении, судопроизводстве, образовании и общественной безопасности. Соответствующие предложения собраны в материалах правительства к будущему законопроекту о регулировании ИИ, а сам документ Минцифры должен быть передан на согласование к концу февраля.

Член комитета Госдумы по информационной политике и федеральный координатор проекта «Цифровая Россия» Антон Немкин перечисляет риски, которые возникают без подобного требования.

  • Первый — дискриминация и алгоритмические искажения в ситуациях, когда модель обучена на неполных или предвзятых данных.
  • Второй — размытая ответственность за ошибку, где непонятно, кто отвечает — разработчик, оператор или государство.
  • Третий — падение доверия граждан к цифровым сервисам, если решения, влияющие на судьбу конкретного человека, воспринимаются как автоматические и не подлежащие оспариванию.

В начале февраля Reuters сообщало о реальных последствиях бесконтрольного применения ИИ в хирургии — навигационная система TruDi, применяемая в медицинском оборудовании, предположительно передавала хирургам неверные данные о положении инструментов во время операций на голове.

В период с конца 2021 по ноябрь 2025 года травмы получили не менее десяти пациентов. Это уже не кейс из учебника по этике ИИ — это уголовная хроника.

Директор Института исследований интернета Карен Казарян считает, что доверять нейросетям проверку работ в школах и университетах преждевременно — накопленный опыт показывает, что ошибки носят массовый характер. Оценка сочинения или решения задачи алгоритмом без финального участия живого педагога — риск, который пока явно превышает удобство автоматизации.

Примечательно, что законопроект появляется именно сейчас, когда ИИ-инструменты проникают в государственные и социальные институты по всему миру. Многие страны уже столкнулись с последствиями этого процесса — алгоритмы выносили предвзятые решения по кредитам, ошибались при медицинской диагностике, генерировали фиктивные судебные прецеденты. Россия, судя по всему, пытается зафиксировать границы до того, как подобные случаи станут системой, а не исключением.

Оригинал публикации на сайте CISOCLUB: "В России хотят запретить ИИ принимать окончательные решения в медицине, суде и школе".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: MAX | VK | Rutube | Telegram | Дзен | YouTube.