Найти в Дзене
Искусственный интеллект

Искусственный интеллект

Всё, что происходит в области законодательного регулирования ИИ
подборка · 2 материала
Искусственный интеллект создал картинку для вашего проекта. Через месяц приходит претензия: на изображении оказался чужой товарный знак. Кажется абсурдом? Но юридически всё логично. Когда вы формулируете промпт и получаете результат от нейросети, ответственность за использование этого контента лежит на вас. Если выяснится, что AI скопировал чужой бренд или защищённый образ — иск придёт именно вам. Что проверять после генерации контента? Всё. Но особенно внимательно: 📌Товарные знаки и их вариации 📌Рекламные слоганы 📌Узнаваемые образы, защищённые авторским правом Зарубежная практика В других странах правообладатели уже готовятся к судебным баталиям. Чтобы выиграть дело, им нужно доказать два момента: подтвердить права на обозначение и показать, что у потребителей возникла путаница между брендами. Пока массовых исков к обычным пользователям нет. Но прецеденты формируются. В 2024 году Walt Disney выразила недовольство, когда пользователи Bing AI генерировали изображения питомцев в стиле Pixar с логотипом компании. Microsoft оперативно запретила такую генерацию. Основной удар пока принимают разработчики нейросетей. Их судят за незаконное копирование данных для обучения моделей и за создание изображений, имитирующих известных персонажей. Российская практика Дел по AI-контенту и интеллектуальной собственности в России пока немного. Эксперты обычно ссылаются на постановления апелляционных судов от апреля и февраля 2024 года. В обоих случаях суд встал на сторону авторов. Судьи подчеркнули: полная генерация искусственным интеллектом не была доказана, спорные объекты созданы творческим трудом человека. Что это значит для бизнеса? Если вы используете AI для создания маркетинговых материалов, презентаций, визуалов для соцсетей — проверяйте результат на предмет чужой интеллектуальной собственности. Нейросеть не несёт ответственности. Отвечаете вы. Риски особенно высоки, когда сгенерированный контент используется в коммерческой деятельности и может создать путаницу с существующими брендами. А вы проверяете контент, созданный нейросетями, на наличие чужих товарных знаков?
Новый закон об ИИ: что изменится для бизнеса в 2027 году Минцифры РФ опубликовало проект закона об искусственном интеллекте. Документ вызвал волну обсуждений — появились слухи о запрете сервисов и «цифровом занавесе» и как сказал вчера один мой клиент «Всё!Ушёл плакать!»😂 Давайте разберемся, что реально стоит за этим законопроектом и как к нему готовиться. Закон планируют ввести только с 1 сентября 2027 года. Сейчас это проект на общественном обсуждении. Юридическое сообщество может повлиять на итоговые формулировки. Для госсистем и объектов КИИ (банки, связь, транспорт) вводится закрытый контур. Работать можно только с моделями из специального реестра. Критерии для включения в реестр: 🔹соответствие требованиям безопасности ФСТЭК и ФСБ 🔹обработка данных только на территории РФ 🔹подтверждение качества от отраслевых регуляторов Появляются понятия «суверенных» и «национальных» моделей. Разработка и обучение должны проходить в РФ силами российских лиц с контролем более 50% голосов. Модели с «иностранным элементом» на любой стадии проверку не пройдут. Это создает барьер для западных решений вроде ChatGPT в значимых проектах. Выстраивается иерархия: Разработчик → Оператор → Владелец сервиса → Пользователь. Разработчик, оператор и владелец несут ответственность, если «заведомо знали или должны были знать» о возможности противоправного результата. Бремя доказывания смещается — нужно доказывать принятие исчерпывающих мер. Владелец сервиса сможет требовать регресс с разработчика за ошибки модели, если докажет, что принял разумные меры безопасности. Пользователь отвечает за использование результата ИИ, если нарушил условия сервиса или действовал умышленно. Результаты, созданные с помощью ИИ, охраняются по ГК РФ независимо от того, создал их человек или система. Владелец сервиса обязан четко закрепить в договоре, кому принадлежат права на результат. Без этого правовой статус контента останется неопределенным. Важное исключение: извлечение информации из объектов для обучения ИИ не нарушает авторское право, если у разработчика есть правомерный экземпляр. Это легализует интеллектуальный анализ данных для обучения нейросетей. Владельцы сервисов обязаны маркировать контент, созданный с помощью ИИ (синтезированный аудио и визуальный материал). Крупные площадки с суточной аудиторией более 100 тысяч пользователей должны проверять наличие маркировки и удалять контент без нее. Можно отказаться от воспринимаемой человеком маркировки по договору с пользователем. Но отказ должен быть предметным, информированным и однозначным. Это усложнит интерфейсы и пользовательские соглашения. Разработка ИИ должна базироваться на принципах патриотизма, приоритета духовного над материальным и поддержки крепкой семьи. Правительство назначит орган для оценки моделей на соответствие этим ценностям. Вводится новый вид идеологического комплаенса. Запрещается «эксплуатация уязвимостей человека», что может стать основанием для блокировки сервисов с манипулятивными алгоритмами. Что делать? 📌 Проведите аудит договоров. Проверьте, прописаны ли права на результаты работы ИИ. 📌 Оцените используемые модели. Если работаете с госсектором — начинайте искать российские альтернативы. 📌 Пересмотрите пользовательские соглашения. Добавьте условия о маркировке контента и правах на результаты. 📌 Документируйте меры безопасности. При возникновении спора это станет доказательством разумной осмотрительности. Законопроект задает архитектуру на годы вперед. Он балансирует между инновациями и контролем. С одной стороны — легализация обучения на открытых данных, господдержка ЦОД, понятные статусы участников. С другой — жесткие барьеры для иностранных моделей, идеологический фильтр, повышенные стандарты ответственности. Времени на адаптацию достаточно. Главное — начать готовиться уже сейчас, а не ждать сентября 2027 года.