Найти в Дзене

AI и законодательное регулирование

Не секрет, что в связи с ростом интереса к нейросетям, многие люди беспокоятся о возможной потере рабочих мест из-за автоматизации процессов, которые могут быть выполнены генеративными сетями.

Многие страны (США, Россия, Китай, Бразилия, Израиль, Италия) уже предлагают проекты законов в отношении искусственного интеллекта, но они все еще находятся на этапах разработки.

В США, где находится большинство компаний, занимающихся проектами искусственного интеллекта, с 2016 года начали обсуждать вопросы регулирования ИИ. В 2019 году была создана Комиссия по искусственному интеллекту при Комиссии по национальной безопасности, которая занималась как использованием ИИ для обеспечения безопасности страны, так и его регулированием. С начала июня этого года в Нью-Йорке действует "Закон о предвзятости", который запрещает компаниям, нанимающим сотрудников использовать автоматизированные инструменты для отбора кандидатов или продвижения сотрудников, если эти инструменты не прошли независимую проверку на предвзятость.

В 2023 году компании Open AI, Google, Amazon, Anthropic, Google, Inflection, Meta и Microsoft, Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI и Stability AI, выразили готовность выполнить внутреннее и внешнее тестирование на безопасность продуктов искусственного интеллекта перед их официальным запуском.

В России есть законопроект (Закон № 123-ФЗ) согласно которому с 2020 года вводится экспериментальное регулирование ИИ в Москве на пять лет. Однако, что произойдет, если что-то пойдет не так, пока не ясно. Закон на этото вопрос ответа не дает.

А что может пойти не так?

Ну например, вы заметили подозрительную активность на вашем счете. Вы звоните в банк, чтобы заблокировать счет или карту, но вам искусственный помощник сообщает, что команда не распознана. И…прощайте ваши денежки!

Кто в данном случае несет ответственность?

Или например, внедрение ChatGPT в решении прикладных задач. Когда пользователь пишет промпт (дает инструкции искусственному интеллекту), чтобы решить какую-то свою задачу, при этом он может раскрывать детали своей личной жизни или информацию о компании, для которой работает. Но как узнать, как владельцы сервиса по искусственному интеллекту обрабатывают эту информацию? Удаляют ли они ее, сохраняют для анализа или используют для дообучения нейронной сети?

По сути это распространение личной или коммерческой тайны!

-2

Это действительно вызывает вызывает беспокойство.