Как заявили сотрудники OpenAI и других IT-гигантов, требования о неразглашении информации могут помешать обществу узнать о рисках продвинутого ИИ
Предостережения о ловушке, которая может помешать человечеству заранее узнавать об экзистенциальных угрозах, содержатся в открытом письме разработчиков искусственного интеллекта под заголовком «Право предупреждать о продвинутом ИИ». Авторы признают перспективность ИИ для общества, но подчеркивают и риски его бесконтрольного развития: от дезинформации до вымирания. И, главное, указывают на проблему: корпорации тщательно хранят свои секреты и не раскрывают чувствительной информации о своих технологиях, а их сотрудники, может быть, и хотели бы предостеречь публику, но скованы жесткими рамками NDA.
О практиках ИИ-рынка рассказывает эксперт по искусственному интеллекту и робототехнике Эдуард Пройдаков:
Эдуард Пройдаков эксперт по искусственному интеллекту и робототехнике «Первыми контроль над системами искусственного интеллекта законодательно установили европейцы, но организовать такой контроль даже внутри компании достаточно тяжело. Соглашение о неразглашении подписывают все, и это естественно, потому что есть ноу-хау, есть конкурентная борьба. В случае с ИИ должно быть законодательство, которое снимает ответственность за разглашение. Я таких законов и поправок нигде не видел, потому что это вызовет сильное противодействие у компании, поскольку под этим предлогом можно организовать любой слив. Я думаю, что на уровне обсуждений эта вещь может быть, потому что сейчас проводится масса конференций по этике искусственного интеллекта, но я присутствовал на некоторых из них и пока серьезных решений не увидел. Пока нет достаточно внятных прецедентов, чтобы можно было, основываясь на них, разрабатывать юридические нормы».
Авторы письма указывают на дыру в западном праве. В США и ряде других стран существуют нормы о защите так называемых whistleblowers, корпоративных осведомителей, но они касаются только разглашения информации о нарушениях закона работодателем. В случае же с ИИ речь идет не о преступлениях, а скорее о рисках ошибки. Как говорится в обращении, участники рынка обладают массой закрытых данных, в том числе по опасности разрабатываемых ими продуктов, но почти не делятся ими даже с регуляторами. Подписанты предлагают обязать компании создавать системы, которые позволят специалистам анонимно информировать советы директоров о рисках ИИ-технологий в портфеле фирмы, а если такой механизм отсутствует или не дает результата, освобождать whistleblower от ответственности за публикацию данных.
Защищены ли корпоративные осведомители в России, если они нарушают свое NDA? Рассказывает почетный адвокат России, автор одноименного телеграм-канала Алексей Скляренко:
Алексей Скляренко почетный адвокат России, автор одноименного телеграм-канала «У нас подобной защиты нет. У нас есть федеральный закон о защите свидетелей, это только в уголовном процессе. Здесь же речь идет о гражданско-правовых отношениях. Если работник считает, что работодатель уволил его неправомерно, он вправе обратиться в трудовую инспекцию, в суд с исковым заявлением о восстановлении его на работе с оплатой вынужденного прогула, компенсацией морального вреда и так далее. Но и тяжесть ответственности за совершение подобного правонарушения лежит, наверное, в соответствии с последствиями такого правонарушения. Если у компании последствия и большие убытки, соответственно, руководство компании считает, что им такой работник не нужен и речь идет о наказании вплоть до увольнения. Если негативных последствий не наступило, работодатель принимает решение о том, что нужно сделать. Достаточно ограничиться строгим выговором и усилить меры контроля, разъяснения и так далее. Либо опять же его увольняют и усиливают меры контроля, разъяснения и так далее».
Авторами обращения стали 13 действующих и бывших сотрудников OpenAI, Google DeepMind и Anthropic, шесть из которых предпочли остаться анонимными. Одобрили инициативу трое крупных исследователей ИИ, в том числе канадский ученый Йошуа Бенджио, которого журнал Time включил в сотню самых влиятельных людей 2024 года и назвал «мировым лидером в сфере искусственного интеллекта». Глобальных тяжеловесов вроде Илона Маска, который поддержал одно из предшествующих обращений о рисках ИИ, среди подписантов нет.