Крупные компании Google, Microsoft, OpenAI и Anthropic объединили свои усилия, чтобы создать новую отраслевую организацию, посвященную безопасной разработке искусственного интеллекта (ИИ).
Этот новый орган, названный Frontier Model Forum, будет работать в тесном сотрудничестве с политиками и исследователями, сосредотачиваясь на разработке передовых подходов к регулированию передового ИИ. Компании заявляют, что их главная миссия заключается в обеспечении безопасности ИИ, исследовании рисков, связанных с этой технологией, а также активном обмене информацией с правительствами и гражданским обществом.
Это анонсированное создание отражает стремление разработчиков ИИ к саморегулированию и ответственному развитию технологии, особенно в преддверии предполагаемых законодательных инициатив со стороны США и Европейского союза, направленных на введение обязательного законодательства для этой отрасли.
Эта важная новость пришла вслед за анонсом, что несколько компаний, включая Amazon и Meta*, обязались перед администрацией президента Байдена подвергать свои системы ИИ стороннему тестированию перед их публикацией, а также ясно маркировать контент, созданный их ИИ.
Frontier Model Forum, как ведущий отраслевой орган, будет открыт и для других компаний, разрабатывающих передовые ИИ-модели. Они планируют предоставить свои технические оценки и тесты через общедоступную библиотеку, чтобы обеспечить прозрачность и доступность этой информации.
Президент Microsoft, Брэд Смит, отметил, что компании, занимающиеся разработкой ИИ, несут ответственность за безопасность и контроль над этой технологией, и это сотрудничество представляет собой жизненно важный шаг для достижения ответственного прогресса в области ИИ и решения общечеловеческих проблем.
Это объявление было сделано вскоре после предупреждения экспертов по ИИ, включая генерального директора Anthropic Дарио Амодеи и пионера ИИ Йошуа Бенжио, о серьезных социальных рисках, связанных с неограниченным развитием ИИ, которые могут иметь катастрофические последствия.
Их обращение подчеркивает необходимость ограничить доступ к системам ИИ, создать стандартные тестовые режимы, отражающие общественные ценности, и установить ограничения на влияние, которое ИИ может оказывать на реальный мир.
Европейский союз уже движется к законопроекту, который может запретить использование ИИ в предиктивной полицейской работе и ограничит его использование в низкорисковых сценариях. В то время как в США работа над законодательством еще продолжается, и лидер большинства в Сенате, Чак Шумер, предоставляет обучающие брифинги для членов сената, чтобы осознать основы ИИ и его влияние на общество.
* признана экстремистской организацией, её деятельность в России запрещена.
Переходите на наш сайт macim. ru уже сегодня, чтобы не упустить уникальные предложения, эксклюзивный контент и возможности увеличения заработка.
Присоединяйтесь к нашему вебинару. Будущее уже здесь, и нейросети помогут вам оказаться на шаг впереди, обогнать ваших конкурентов и коллег, увеличить свой заработок и свое благосостояние, и смотреть в будущее более уверенно!
И не забывайте подписываться на наши соц.сети
YouTube: https://www.youtube.com/@MACIM-AI
Телеграм: https://t.me/MACIM_AI
Чат-бот: https://t.me/ChatGPT_Mindjorney_macim_bot
Вконтакте: https://vk.ru/macim_ai
#нейросети