Найти в Дзене
Герман Геншин

DeepMind уже разрабатывает способы защитить нас от AGI

Искусственный общий интеллект (AGI) — тема, которая сейчас на слуху, но учёные до сих пор не пришли к единому мнению о том, что именно она собой представляет. Некоторые исследователи полагают, что до его создания пройдут ещё сотни лет, и для этого понадобятся технологии, которые мы сейчас даже не можем себе представить. В то время как Google DeepMind утверждает, что AGI может появиться уже к 2030 году и разрабатывает меры безопасности уже сейчас. Несогласия среди научного сообщества по этим вопросам не редкость, и это хорошо, так как ведутся разработки как для близкого, так и для далекого будущего. Тем не менее, цифра в пять лет звучит довольно шокирующе. На данный момент известные публике проекты «передового ИИ» в основном представляют собой языковые модели — это продвинутые системы для предсказания слов и генерации изображений. Например, ChatGPT все еще плохо справляется с математикой, а каждая модель, с которой я работал, плохо понимает инструкции и точно редактирует свои ответы. М

Искусственный общий интеллект (AGI) — тема, которая сейчас на слуху, но учёные до сих пор не пришли к единому мнению о том, что именно она собой представляет. Некоторые исследователи полагают, что до его создания пройдут ещё сотни лет, и для этого понадобятся технологии, которые мы сейчас даже не можем себе представить. В то время как Google DeepMind утверждает, что AGI может появиться уже к 2030 году и разрабатывает меры безопасности уже сейчас.

Несогласия среди научного сообщества по этим вопросам не редкость, и это хорошо, так как ведутся разработки как для близкого, так и для далекого будущего. Тем не менее, цифра в пять лет звучит довольно шокирующе.

На данный момент известные публике проекты «передового ИИ» в основном представляют собой языковые модели — это продвинутые системы для предсказания слов и генерации изображений. Например, ChatGPT все еще плохо справляется с математикой, а каждая модель, с которой я работал, плохо понимает инструкции и точно редактирует свои ответы. Модель Claude от Anthropic так и не смогла выиграть в Pokémon, и хотя языковые навыки этих моделей впечатляют, они обучались на текстах многих посредственных авторов и унаследовали немало плохих привычек.

Трудно представить переход от текущих технологий к чему-то, что, по мнению DeepMind, обладает возможностями, сравнимыми или превосходящими «навыки 99% квалифицированных взрослых». Иными словами, DeepMind считает, что AGI будет столь же умным или даже умнее, чем верхний 1% людей в мире.

Какие же риски, по мнению DeepMind, может представлять AGI уровня Эйнштейна?

В своей работе они выделяют четыре основных категории: неправильное использование, несоответствие, ошибки и структурные риски. Жаль, что для этого списка не удалось придумать что-то более удачное.

DeepMind считает, что «неправильное использование» включает в себя такие практики, как влияние на политические выборы с помощью дипфейков или мошенничество с подделкой личностей. В выводах они отмечают, что их подход к безопасности «сосредоточен на блокировке доступа злонамеренных акторов к опасным возможностям».

Это звучит неплохо, но важно помнить, что DeepMind является частью Google, который сам разрабатывает такие системы. Конечно, Google вряд ли будет обманывать пожилых людей, притворяясь их внуками, но это не значит, что он не сможет использовать AGI для получения прибыли в ущерб потребителям.

Ситуация с «несоответствием» напоминает сценарий из Терминатора, когда мы запрашиваем от ИИ одно, а он делает что-то совершенно иное. Это довольно пугающая мысль. DeepMind утверждает, что лучший способ справиться с такими ситуациями — это гарантировать, что мы понимаем, как действуют наши ИИ-системы, в деталях, чтобы мы могли выявлять проблемы, когда что-то идет не так, где именно это происходит и как это исправить.

Это противоречит концепции «спонтанной эмерджентности» возможностей и идее о том, что AGI будет настолько сложным, что мы не сможем понять, как он функционирует. Вместо этого, чтобы оставаться в безопасности, нам нужно убедиться, что мы знаем, что происходит. Не могу сказать, насколько это будет сложно, но определенно стоит попробовать.

Последние две категории касаются случайного ущерба — либо ошибок со стороны ИИ, либо путаницы, возникающей из-за того, что слишком много людей одновременно участвуют в процессах. Для этого нам нужны системы, которые одобряют действия, которые хочет предпринять AGI, и предотвращают ситуации, когда разные люди тянут его в разные стороны.

Хотя работа DeepMind является полностью исследовательской, уже сейчас можно выделить множество способов, по которым AGI может проявить себя негативно. Это не так страшно, как может показаться — проблемы, которые мы можем себе представить, это те, для которых мы можем готовиться лучше. Гораздо серьезнее те проблемы, которые мы не можем предвидеть, поэтому надеюсь, что мы ничего важного не упустили.

Если вам понравилась эта статья, подпишитесь, чтобы не пропустить еще много полезных статей!

Вы также можете читать наши материалы в: