41 подписчик
Вы отличаете реальность от ИИ? Согласитесь, в мире дипфейков крайне важно знать, что перед тобой — реальное фото или плод работы нейросети.
Развитие ИИ требует четкого регулирования, чтобы защитить наши права и обеспечить безопасность. За рубежом подходы разнятся, но общая тенденция к «приземлению» ИИ очевидна. Если Евросоюз еще в 2024 году просто классифицировал системы по уровням риска, то настоящим первопроходцем для меня стала Южная Корея. В январе 2026 года там заработал первый в мире всеобъемлющий закон, который перевел этику в плоскость конкретных обязательств.
☄️Суть корейского метода — в создании жесткого каркаса безопасности при сохранении свободы для бизнеса. В стране официально закрепили обязательную маркировку любого ИИ-контента (текста, фото, видео) водяными знаками и ввели обязательный аудит алгоритмов в критических сферах вроде медицины и транспорта. Институт безопасности ИИ следит за рисками, а Президентский совет координирует стратегию. Модель не допускает уголовного преследования разработчиков, зато есть ощутимые штрафы порядка $20 000 за игнорирование предписаний. Пока США и Китай ограничиваются точечными правилами, Корея создала единый фундамент, на который теперь оглядывается весь мир.
В России прямого рамочного закона пока нет, но мы движемся по пути реализации Национальной стратегии развития ИИ до 2030 года. Уже действуют важные акты, такие как приказ ФСТЭК о безопасности ИИ в госсекторе и постановления для соцсферы. В этом году обсуждаются законы об ответственности и обязательной маркировке. К 1 июня 2026 года по поручению Президента РФ будет утвержден национальный план внедрения ИИ в экономику и госуправление. Мы готовимся к тому, что контент, созданный нейросетями, будет иметь видимые и машиночитаемые метки «Сгенерировано ИИ», как это уже предлагается в российских проектах и зарубежной практике.
Технологии для человека, не наоборот!
1 минута
5 февраля