Добавить в корзинуПозвонить
Найти в Дзене
RuNews24.ru

Человек во главе: Россия планирует законодательно закрепить контроль над ИИ

В России готовится законопроект, который призван гарантировать сохранение человеческого контроля при использовании искусственного интеллекта (ИИ) в критически важных для общества областях. Речь идет о сферах, таких как медицина, правосудие, образование и обеспечение безопасности граждан. Эта инициатива является ответом на потенциальные риски, связанные с делегированием ключевых решений машинам. Согласно предложениям, содержащимся в правительственных материалах, которые стали основой для разработки данного законопроекта, наличие требования о приоритете человеческого фактора при работе с ИИ является необходимым условием. Источник, близкий к профильным ведомствам, сообщил, что Министерство цифрового развития планирует представить документ на согласование в правительство до конца февраля. Депутат Госдумы Антон Немкин подчеркивает, что игнорирование этого принципа может породить ряд системных проблем. К ним относятся угрозы дискриминации из-за предвзятости данных, на которых обучаются ИИ-си

В России готовится законопроект, который призван гарантировать сохранение человеческого контроля при использовании искусственного интеллекта (ИИ) в критически важных для общества областях. Речь идет о сферах, таких как медицина, правосудие, образование и обеспечение безопасности граждан. Эта инициатива является ответом на потенциальные риски, связанные с делегированием ключевых решений машинам.

   Фото: Коллаж RuNews24.ru
Фото: Коллаж RuNews24.ru

Согласно предложениям, содержащимся в правительственных материалах, которые стали основой для разработки данного законопроекта, наличие требования о приоритете человеческого фактора при работе с ИИ является необходимым условием. Источник, близкий к профильным ведомствам, сообщил, что Министерство цифрового развития планирует представить документ на согласование в правительство до конца февраля.

Депутат Госдумы Антон Немкин подчеркивает, что игнорирование этого принципа может породить ряд системных проблем. К ним относятся угрозы дискриминации из-за предвзятости данных, на которых обучаются ИИ-системы, а также размывание ответственности в случае ошибок – становится неясно, кто в итоге должен отвечать: разработчик, оператор или государство. Кроме того, автоматизированные и категоричные решения могут подорвать доверие граждан к цифровым сервисам.

Своевременность этих мер подтверждается недавними инцидентами. В начале февраля стало известно о случаях, когда ИИ, используемый в медицинском оборудовании, привел к травмам пациентов. В частности, навигационная система TruDi, по предварительным данным, допускала ошибки, дезориентируя хирургов во время операций на головном мозге, что привело к травмам у как минимум десяти человек за период с конца 2021 по ноябрь 2025 года.

Эксперты также предостерегают от слепого доверия к ИИ в образовательной сфере, подчеркивают Известия. Директор Института исследований интернета Карен Казарян отмечает, что нейросети демонстрируют склонность к ошибкам при проверке заданий, что ставит под сомнение их пригодность для этой задачи.

________________

Подпишитесь на наш канал, ставьте лайки и оставляйте свои комментарии, этим вы поможете донести важную информацию до большего количества людей. А кнопка «Поддержать» — это способ сказать нам «спасибо».