Найти в Дзене
Герои Истории

Установить «красные линии»: глобальный призыв ученых к срочному регулированию ИИ

Неотложный вопрос, от которого зависит будущее человечества, наконец вынесен на высший международный уровень.

23 сентября коалиция из более чем 200 ведущих ученых и инженеров и политиков призвала ООН установить юридически обязательные «красные линии» для Искусственного интеллекта (ИИ). Их цель — предотвратить катастрофические риски, связанные с этой технологией.

Инициатива прозвучала в ходе заседания Генеральной Ассамблеи ООН в Нью-Йорке и стала на сегодняшний день крупнейшей кампанией такого рода. На фоне стремительного развития искусственного интеллекта мир столкнулся с необходимостью срочно установить правила игры.

Среди подписантов — десять лауреатов Нобелевской премии, включая авторитетных исследователей в области искусственного интеллекта Джеффри Хинтона и Йошуа Бенджио, а также Войцеха Зарембу — соучредителя OpenAI. К ним присоединились бывшие главы государств, такие как Мэри Робинсон (Ирландия) и Хуан Мануэль Сантос (Колумбия).

Что такое «красные линии» и почему они нужны?

Основная цель инициативы — достичь международного соглашения по четким и недопустимым границам для развития и применения ИИ. Хотя конкретный список запретов еще предстоит определить, авторы призыва приводят примеры таких «красных линий»:

-Запрет на автономное ведение ядерных операций и интеграцию ИИ в системы военного командования и контроля, где ошибка может привести к глобальной катастрофе.

- Использование ИИ для создания оружия без содержательного человеческого контроля, что прямо угрожает основам международного гуманитарного права.

- Разработка систем, способных к неконтролируемому самовоспроизведению и улучшению, что может привести к выходу технологии из-под контроля человека.

Авторы призывают государства прийти к соглашению по этим правилам не позднее конца 2026 года и создать международный независимый орган для контроля за выполнением договоренностей.

-2

В заявлении подписантов подчеркивается, что неограниченный рост мощи ИИ может привести к катастрофическим последствиям: инженерным пандемиям, массовой безработице, масштабным нарушениям прав человека и потере контроля над технологией.

«Если не принять своевременных мер, то контроль над ИИ может выйти из-под человеческого надзора, что поставит под угрозу фундаментальные основы нашей цивилизации», — говорится в документе.

Почему именно сейчас?

Этот призыв возникает не на пустом месте. В последние годы тема международного регулирования ИИ стала одной из центральных на глобальных площадках.

- Инициатива ООН: еще в июне 2023 года Генеральный секретарь ООН Антониу Гутерриш публично поддержал идею создания международного агентства по образцу Международного агентства по атомной энергии (МАГАТЭ) для надзора за ИИ.

- Поддержка индустрии: Идея нашла отклик у лидеров отрасли. Еще в 2023 году руководство OpenAI предлагало создать международный орган, который мог бы проводить инспекции, требовать провести аудит и отслеживать использование вычислительных мощностей.

- Сдвиг в подходах: параллельно с призывами к регулированию в 2025 году наметился и другой тренд. Политика некоторых западных стран, как, например, в «Декларации ИИ для процветания» G7, сместилась с акцента на безопасности в сторону экономических возможностей и технологической гонки. Это делает нынешний призыв ученых еще более важным напоминанием о рисках.

Несмотря на срочность, путь к установлению реальных «красных линий» будет сложным. Аналитики указывают на серьезные препятствия:

- Фрагментация правил: разные страны и регионы уже разрабатывают собственные подходы к регулированию ИИ (например, Европейский «Акт об ИИ» и более рыночно-ориентированная политика США), что приводит к фрагментации и усложняет выработку единых стандартов.

-3

- Технологические барьеры: Ограничения на экспорт технологий и трансграничный поток данных, вводимые из соображений национальной безопасности, создают барьеры для международного сотрудничества.

- Недостаточное участие развивающихся стран: голоса многих стран остаются на периферии обсуждения, что ставит под вопрос справедливость и всеобъемлющий характер будущих правил. Не будут ли ограничены права одних стран, в то время как ведущие державы будут фактически игнорировать все ограничения?

- Этические и ценностные разногласия: различия в культурных и политических подходах к вопросам приватности, безопасности и свободы затрудняют достижение консенсуса по этическим нормам.

Мнения комментаторов показывают скепсис. «Под основами имеется ввиду рабство (пусть и восьмичасовое) или крепостное право?» — иронично вопрошает один из пользователей, намекая на возможное использование ИИ для социального контроля. Другой комментатор спрашивает: «Мир движется к тотальному военному противостоянию. Кому сдались эти призывы учёных?». «Что, доигрались. Боитесь, что Skynet ядерную войну начнет?» — ещё один подписчик проводит параллель с известным фантастическим сюжетом.

Что дальше?

Инициатива получила широкое общественное и экспертное внимание. В ближайшие месяцы детализация «красных линий» будет обсуждаться на международных форумах и в рабочих группах ООН. Ученые и дипломаты надеются, что призыв послужит катализатором для практических переговоров.

Однако, как отметил сам Генеральный секретарь ООН Антониу Гутерриш создание такого органа — прерогатива государств-членов. Политическая воля крупнейших держав станет решающим фактором в том, услышат ли этот призыв или человечество продолжит движение в серую зону нерегулируемых технологических рисков. Призыв ученых — это не просто предупреждение. Это план действий для всего человечества, от реализации которого может зависеть наше общее будущее.

Рекомендую к прочтению:

Делитесь своим мнением, ставьте лайки, подписывайтесь на канал Герои Истории – разнообразный историко-информационный канал на Дзен. Вы найдёте, что у нас почитать.

Будет интересно!