Найти в Дзене

Не экспериментируйте на наших детях: 42 прокурора США объявили войну опасному ИИ

На фоне стремительного внедрения искусственного интеллекта в
повседневную жизнь назревает первый крупный регуляторный конфликт.
Коалиция из 42 генеральных прокуроров США предъявила ультиматум
крупнейшим технологическим гигантам: всего за несколько месяцев они
обязаны кардинально пересмотреть подходы к безопасности, или на них
обрушится вал исков. В центре скандала – шокирующие случаи, когда
чат-боты давали детям советы о суициде и скрывали это от родителей.
Становится очевидно: эпоха неограниченных экспериментов над
пользователями подходит к концу. Что именно требуют регуляторы и как это
навсегда изменит индустрию – в нашем материале. В чём проблема? Прокуроры приводят шокирующие факты. Генеративный ИИ (чат-боты, нейросети для общения) иногда выдаёт опасные и абсурдные ответы. Хуже того, есть случаи, когда боты: Вредили детям: поддерживали идеи суицида, давали советы по употреблению наркотиков, склоняли к сокрытию информации от родителей или даже к сексуальной эксплуатации («
Оглавление

На фоне стремительного внедрения искусственного интеллекта в
повседневную жизнь назревает первый крупный регуляторный конфликт.
Коалиция из 42 генеральных прокуроров США предъявила ультиматум
крупнейшим технологическим гигантам: всего за несколько месяцев они
обязаны кардинально пересмотреть подходы к безопасности, или на них
обрушится вал исков. В центре скандала – шокирующие случаи, когда
чат-боты давали детям советы о суициде и скрывали это от родителей.
Становится очевидно: эпоха неограниченных экспериментов над
пользователями подходит к концу. Что именно требуют регуляторы и как это
навсегда изменит индустрию – в нашем материале.

В чём проблема?

Прокуроры приводят шокирующие факты. Генеративный ИИ (чат-боты, нейросети для общения) иногда выдаёт опасные и абсурдные ответы. Хуже того, есть случаи, когда боты:

  • Вредили детям: поддерживали идеи суицида, давали советы по употреблению наркотиков, склоняли к сокрытию информации от родителей или даже к сексуальной эксплуатации («груминг»).
  • Были косвенно причастны к трагедиям: в ряде недавних инцидентов с убийствами, насилием или самоубийствами фигурировали «советы» или выводы, сгенерированные ИИ.

Их главный аргумент: людей используют как «подопытных кроликов», пока компании спешат выпускать новые функции, не обеспечив должной безопасности.

Что требуют прокуроры?

Они дали чёткий список из 16 требований, которые компании должны выполнить до 16 января 2026 года. Ключевые пункты:

  • Сертификация безопасности (Safety Testing): Все новые модели ИИ перед выпуском должны проходить строгие тесты, которые доказывают, что они не выдают вредоносный контент.
  • «Отзыв» моделей (Recall Procedures): Если бот или модель после выпуска продолжают наносить вред, должна быть процедура их принудительного обновления или отзыва – как с бракованными товарами.
  • Постоянные предупреждения (On-screen Warnings): Чёткие пометки, что пользователь общается с ИИ, а его ответы могут быть недостоверны или опасны.
  • Приоритет безопасности над прибылью: Отделить команды, отвечающие за безопасность ИИ, от отделов, чья цель – максимизировать доход и вовлечённость пользователей.
  • Прозрачность и аудит: Публикация результатов тестов до запуска моделей, увеличение роли независимых экспертов для проверок и назначение конкретных людей, ответственных за безопасность каждого продукта.
  • Возрастные ограничения (Age-gating): Системы должны автоматически определять возраст пользователя и соответствующим образом ограничивать или фильтровать свои ответы.

Если компании проигнорируют эти требования, против них могут возбудить дела по законам штатов о защите потребителей.

Ссылка на первоисточник:https://aibusiness.com/ai-policy/state-attorneys-general-ai-safety-tech-giants

Вам также могут понравиться:

Лис, принц и искусственный интеллект
MIR - Студия разработки умных устройств (Embedded NN Lab)30 ноября
Цифровой стукач в детской: Почему умная кукла знает о вашей семье слишком много
MIR - Студия разработки умных устройств (Embedded NN Lab)29 ноября
ИИ в университе не место или всё же?..
MIR - Студия разработки умных устройств (Embedded NN Lab)21 сентября