902 подписчика

В Калифорнии активно продвигают проект, требующий усилить безопасность ИИ-моделей

ИИ
ИИ

Цель предложения заключается в том, чтобы все компании, работающие в штате с технологией искусственного интеллекта, проводили тестирование, устанавливали меры защиты, которые способны предотвращать потенциальное использование во вред.

Ожидается, с помощью нововведения можно будет исключить применение ИИ для ликвидации электросети, разработки химического оружия. Возможно, сегодня это кажется нереальным, но через несколько лет подобные сценарии будут существовать, ведь развитие технологий осуществляется стремительно.

Венчурные фонды и технологические компании, среди которых Google, выступают против новаторской идеи. Свою позицию они объясняют тем, что требования следует выдвигать в адрес тех, кто использует ИИ в преступных целях. С их слов, разработчики не обязаны отвечать за тех, кто нарушает закон. Американский политик Скотт Винер сказал, инициатива предусматривает вполне разумные стандарты. Никто же не предлагает устанавливать уголовную ответственность для разработчиков, чьи продукты были использованы злоумышленниками. Реализация проекта предотвратит негативные последствия. В случае принятие закона, он будет распространяться на системы, на обучение которых было выделено более чем 100 миллионов долларов. К настоящему времени ни одна ИИ-модель еще не получила такой большой бюджет.