Неотложный вопрос, от которого зависит будущее человечества, наконец вынесен на высший международный уровень.
23 сентября коалиция из более чем 200 ведущих ученых и инженеров и политиков призвала ООН установить юридически обязательные «красные линии» для Искусственного интеллекта (ИИ). Их цель — предотвратить катастрофические риски, связанные с этой технологией.
Инициатива прозвучала в ходе заседания Генеральной Ассамблеи ООН в Нью-Йорке и стала на сегодняшний день крупнейшей кампанией такого рода. На фоне стремительного развития искусственного интеллекта мир столкнулся с необходимостью срочно установить правила игры.
Среди подписантов — десять лауреатов Нобелевской премии, включая авторитетных исследователей в области искусственного интеллекта Джеффри Хинтона и Йошуа Бенджио, а также Войцеха Зарембу — соучредителя OpenAI. К ним присоединились бывшие главы государств, такие как Мэри Робинсон (Ирландия) и Хуан Мануэль Сантос (Колумбия).
Что такое «красные линии» и почему они нужны?
Основная цель инициативы — достичь международного соглашения по четким и недопустимым границам для развития и применения ИИ. Хотя конкретный список запретов еще предстоит определить, авторы призыва приводят примеры таких «красных линий»:
-Запрет на автономное ведение ядерных операций и интеграцию ИИ в системы военного командования и контроля, где ошибка может привести к глобальной катастрофе.
- Использование ИИ для создания оружия без содержательного человеческого контроля, что прямо угрожает основам международного гуманитарного права.
- Разработка систем, способных к неконтролируемому самовоспроизведению и улучшению, что может привести к выходу технологии из-под контроля человека.
Авторы призывают государства прийти к соглашению по этим правилам не позднее конца 2026 года и создать международный независимый орган для контроля за выполнением договоренностей.
В заявлении подписантов подчеркивается, что неограниченный рост мощи ИИ может привести к катастрофическим последствиям: инженерным пандемиям, массовой безработице, масштабным нарушениям прав человека и потере контроля над технологией.
«Если не принять своевременных мер, то контроль над ИИ может выйти из-под человеческого надзора, что поставит под угрозу фундаментальные основы нашей цивилизации», — говорится в документе.
Почему именно сейчас?
Этот призыв возникает не на пустом месте. В последние годы тема международного регулирования ИИ стала одной из центральных на глобальных площадках.
- Инициатива ООН: еще в июне 2023 года Генеральный секретарь ООН Антониу Гутерриш публично поддержал идею создания международного агентства по образцу Международного агентства по атомной энергии (МАГАТЭ) для надзора за ИИ.
- Поддержка индустрии: Идея нашла отклик у лидеров отрасли. Еще в 2023 году руководство OpenAI предлагало создать международный орган, который мог бы проводить инспекции, требовать провести аудит и отслеживать использование вычислительных мощностей.
- Сдвиг в подходах: параллельно с призывами к регулированию в 2025 году наметился и другой тренд. Политика некоторых западных стран, как, например, в «Декларации ИИ для процветания» G7, сместилась с акцента на безопасности в сторону экономических возможностей и технологической гонки. Это делает нынешний призыв ученых еще более важным напоминанием о рисках.
Несмотря на срочность, путь к установлению реальных «красных линий» будет сложным. Аналитики указывают на серьезные препятствия:
- Фрагментация правил: разные страны и регионы уже разрабатывают собственные подходы к регулированию ИИ (например, Европейский «Акт об ИИ» и более рыночно-ориентированная политика США), что приводит к фрагментации и усложняет выработку единых стандартов.
- Технологические барьеры: Ограничения на экспорт технологий и трансграничный поток данных, вводимые из соображений национальной безопасности, создают барьеры для международного сотрудничества.
- Недостаточное участие развивающихся стран: голоса многих стран остаются на периферии обсуждения, что ставит под вопрос справедливость и всеобъемлющий характер будущих правил. Не будут ли ограничены права одних стран, в то время как ведущие державы будут фактически игнорировать все ограничения?
- Этические и ценностные разногласия: различия в культурных и политических подходах к вопросам приватности, безопасности и свободы затрудняют достижение консенсуса по этическим нормам.
Мнения комментаторов показывают скепсис. «Под основами имеется ввиду рабство (пусть и восьмичасовое) или крепостное право?» — иронично вопрошает один из пользователей, намекая на возможное использование ИИ для социального контроля. Другой комментатор спрашивает: «Мир движется к тотальному военному противостоянию. Кому сдались эти призывы учёных?». «Что, доигрались. Боитесь, что Skynet ядерную войну начнет?» — ещё один подписчик проводит параллель с известным фантастическим сюжетом.
Что дальше?
Инициатива получила широкое общественное и экспертное внимание. В ближайшие месяцы детализация «красных линий» будет обсуждаться на международных форумах и в рабочих группах ООН. Ученые и дипломаты надеются, что призыв послужит катализатором для практических переговоров.
Однако, как отметил сам Генеральный секретарь ООН Антониу Гутерриш создание такого органа — прерогатива государств-членов. Политическая воля крупнейших держав станет решающим фактором в том, услышат ли этот призыв или человечество продолжит движение в серую зону нерегулируемых технологических рисков. Призыв ученых — это не просто предупреждение. Это план действий для всего человечества, от реализации которого может зависеть наше общее будущее.
Рекомендую к прочтению:
Делитесь своим мнением, ставьте лайки, подписывайтесь на канал Герои Истории – разнообразный историко-информационный канал на Дзен. Вы найдёте, что у нас почитать.