Найти тему
OVERCLOCKERS.RU

Бывшие сотрудники OpenAI о катастрофических последствиях нерегулируемого ИИ

Недавний конфликт между OpenAI и калифорнийским законопроектом SB 1047 привлек внимание общественности, когда два бывших сотрудника компании выразили свои опасения по поводу нерегулируемого искусственного интеллекта. В своем письме к губернатору Калифорнии Гэвину Ньюсому они подчеркнули, что отсутствие адекватного регулирования может привести к катастрофическим последствиям для общества. Это заявление стало резким ответом на позицию OpenAI, которая выступила против законопроекта, утверждая, что он может негативно сказаться на инновациях в области ИИ.

24 августа, согласно информации из "Business Insider", два бывших сотрудника OpenAI, Уильям Сондерс и Дэниел Кокотайло, публично раскритиковали свою прежнюю компанию после того, как OpenAI выразила несогласие с законопроектом SB 1047, касающимся безопасности искусственного интеллекта. Этот законопроект требует от компаний, работающих в сфере ИИ, принимать меры для предотвращения серьезного вреда, который могут причинить их модели, включая разработку биологического оружия. Бывшие сотрудники отметили, что их разочарование в реакции OpenAI на законопроект не стало для них неожиданностью.

В своем письме они указали, что изначально присоединились к OpenAI, стремясь гарантировать безопасное и ответственное развитие мощных систем ИИ. Однако со временем они потеряли доверие к компании, считая, что ее действия не соответствуют заявленным принципам. Они подчеркнули, что отсутствие адекватных мер безопасности в разработке передовых моделей ИИ создает предсказуемые риски для общества.

Напомним, что 22 августа OpenAI официально объявила о своем несогласии с законопроектом, который был единогласно одобрен Сенатом Калифорнии в мае. В письме к сенатору Скотту Винеру компания выразила мнение, что законопроект может нанести вред инновациям в индустрии ИИ и что вопросы безопасности должны регулироваться на федеральном уровне, а не на уровне штата. OpenAI считает, что законопроект может существенно повлиять на конкурентоспособность США в области ИИ и национальную безопасность.

Согласно SB 1047, компании обязаны гарантировать, что их системы могут быть отключены в экстренных ситуациях, а также предпринимать разумные шаги для предотвращения катастроф. В случае несоблюдения этих требований компании могут столкнуться с гражданскими санкциями. Этот законопроект вызвал сильную оппозицию со стороны крупных технологических компаний и стартапов, которые считают его чрезмерно строгим для отрасли, находящейся на стадии развития.

OpenAI утверждает, что принятие законопроекта может замедлить темпы инноваций в Калифорнии, что негативно скажется на экономическом росте штата. Директор по стратегии компании Джейсон Куан отметил, что уникальное положение Калифорнии как мирового лидера в области ИИ должно поддерживаться, а не ставиться под угрозу. Он подчеркнул, что законопроект может вынудить высококвалифицированных специалистов покинуть штат в поисках лучших условий для работы.

Кроме того, OpenAI приостановила планы по расширению своего офиса в Сан-Франциско из-за неопределенности в отношении будущего законодательства. Эта ситуация подчеркивает тревожные перспективы для технологической экосистемы Калифорнии, где стартапы и крупные компании стремятся к инновациям, но сталкиваются с возможными ограничениями со стороны регулирующих органов.

В ответ на критику со стороны OpenAI, сенатор Винер заявил, что аргументы о том, что таланты в области ИИ покидают штат, не имеют смысла, поскольку закон будет применяться ко всем компаниям, работающим в Калифорнии, независимо от их местоположения. Это заявление подчеркивает сложность ситуации, в которой сталкиваются компании и законодатели, пытаясь сбалансировать безопасность и инновации.