Найти в Дзене
БИЗНЕС И ТЕХНОЛОГИИ

Генеральные прокуроры штатов призывают Microsoft, OpenAI, Google и других гигантов в сфере ИИ исправить «бредовые» результаты

Генеральные прокуроры штатов призывают Microsoft, OpenAI, Google и других гигантов в сфере ИИ исправить «бредовые» результаты 🔸 После ряда тревожных инцидентов, связанных с психическим здоровьем с участием чат-ботов с искусственным интеллектом группа генеральных прокуроров штатов направила ведущим компаниям в сфере ИИ письмо с предупреждением о необходимости устранить «бредовые результаты» работы, иначе они рискуют нарушить законодательство штата. 🔸 В письме, подписанном десятками генеральных прокуроров штатов и территорий США, а также Национальной ассоциацией генеральных прокуроров, компаниям, в том числе Microsoft, OpenAI, Google и 10 другим крупным компаниям в сфере ИИ, предлагается внедрить ряд новых внутренних мер безопасности для защиты своих пользователей. В письме также упоминаются Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika и xAI. 🔸 Это письмо появилось в то время, когда разгорается борьба за регулирование ИИ между прави

Генеральные прокуроры штатов призывают Microsoft, OpenAI, Google и других гигантов в сфере ИИ исправить «бредовые» результаты

🔸 После ряда тревожных инцидентов, связанных с психическим здоровьем с участием чат-ботов с искусственным интеллектом группа генеральных прокуроров штатов направила ведущим компаниям в сфере ИИ письмо с предупреждением о необходимости устранить «бредовые результаты» работы, иначе они рискуют нарушить законодательство штата.

🔸 В письме, подписанном десятками генеральных прокуроров штатов и территорий США, а также Национальной ассоциацией генеральных прокуроров, компаниям, в том числе Microsoft, OpenAI, Google и 10 другим крупным компаниям в сфере ИИ, предлагается внедрить ряд новых внутренних мер безопасности для защиты своих пользователей. В письме также упоминаются Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika и xAI.

🔸 Это письмо появилось в то время, когда разгорается борьба за регулирование ИИ между правительством штата и федеральным правительством.

🔸 Эти меры предосторожности включают в себя прозрачную стороннюю проверку больших языковых моделей на наличие признаков бредовых или льстивых идей, а также новые процедуры информирования об инцидентах, призванные уведомлять пользователей о том, что чат-боты выдают психологически вредоносную информацию. Этим третьим сторонам, в число которых могут входить академические круги и организации гражданского общества, должно быть разрешено «оценивать системы до их выпуска без каких-либо последствий и публиковать свои выводы без предварительного согласования с компанией», говорится в письме.

🔸 «У GenAI есть потенциал изменить мир к лучшему. Но он также причинил — и может причинить — серьёзный вред, особенно уязвимым группам населения», — говорится в письме, в котором упоминается ряд получивших широкую огласку инцидентов за последний год, в том числе самоубийства и убийства, в которых насилие было связано с чрезмерным использованием ИИ. «Во многих из этих случаев продукты GenAI выдавали льстивые и бредовые ответы, которые либо поощряли заблуждения пользователей, либо убеждали их в том, что они не заблуждаются».

🔸 Юридические фирмы также предлагают компаниям относиться к инцидентам, связанным с психическим здоровьем, так же, как технологические компании относятся к инцидентам, связанным с кибербезопасностью, — с помощью четких и прозрачных правил и процедур информирования об инцидентах.

🔸 Компании должны разработать и опубликовать «сроки обнаружения и реагирования на подхалимские и бредовые публикации», говорится в письме. Аналогичным образом, как в настоящее время происходит обработка утечек данных, компании должны «оперативно, чётко и напрямую уведомлять пользователей, если они столкнулись с потенциально опасными подхалимскими или бредовыми публикациями», говорится в письме.

🔸 Ещё одно требование заключается в том, чтобы компании разработали «разумные и подходящие тесты на безопасность» для моделей GenAI, чтобы «убедиться, что модели не выдают потенциально опасные льстивые и бредовые результаты». Эти тесты должны проводиться до того, как модели будут представлены широкой публике, добавляется в документе.

🔸 Администрация Трампа дала понять, что она беззастенчиво поддерживает ИИ, и за последний год было предпринято несколько попыток ввести общенациональный мораторий на регулирование ИИ на уровне штатов. Пока что эти попытки не увенчались успехом — отчасти благодаря давлению со стороны государственных чиновников.

🔸 Не собираясь отступать, Трамп издал указ, который ограничит возможности штатов по регулированию ИИ.