Найти в Дзене
НЕЙРОСФЕРА

Какая безопасность исследований в области искусственного интеллекта?

Искусственный интеллект (ИИ) долгие годы не оправдывал ожиданий, но внезапно стал захватывающе хорош. И если мы не будем очень осторожны, он может стать даже опасным - настолько опасным, что представляет собой "экзистенциальный риск" для человечества.

Онлайн-курс МАУСИ "Нейросфера"

Геоффри Хинтон, один из более достоверных "пессимистов", так как он много лет работал в Google и известен как "крестный отец ИИ", неоднократно предупреждал, что эти угрозы - не просто научная фантастика. Например, он сказал: "Трудно представить, как можно предотвратить плохие действия с использованием [ИИ] для плохих целей."

Белый дом, некоторые мировые лидеры и многие компании по искусственному интеллекту пытаются предотвратить это, но их усилий недостаточны. Если мы хотим убедиться, что ИИ не причинит неисправимого вреда, нам нужно остановить разработку моделей ИИ, пока не проведем необходимую беседу по вопросам безопасности. Нет другого выхода.

Для многих людей, которые слышат о проблемах ИИ, есть недопонимание между сегодняшними чат-ботами, такими как ChatGPT, Bard и Claude 2, и потенциалом зловещего сверхинтеллекта ИИ. Как мы переходим отсюда к туда?

Основная идея заключается в экспоненциальном улучшении ИИ, которое, вероятно, скоро достигнет порога умения превосходить человеческий интеллект. Этот искусственный общий интеллект (ИОИ) обычно описывается как ИИ, который такой же хороший или лучше в большинстве или всех когнитивных задач человека, таких как язык, решение проблем, математика, логика и творчество. Как только это будет достигнуто, ИОИ даже создаст более умный ИИ, и гораздо быстрее, чем это могут сделать люди. Это означает, что он сможет улучшать себя экспоненциально. Когда это произойдет, мы, вероятно, переживем момент "фум!" с крайне быстрым ростом интеллекта, а затем достигнем того, что некоторые называют искусственным сверхинтеллектом (ИСИ).

ИСИ можно представить как ИИ с божественными способностями. Если самый умный человек, когда-либо живший, имел, быть может, 200 IQ, то ИСИ может иметь IQ миллион или более (но, конечно же, любая шкала тестирования, созданная человеком, не имела бы смысла для такой интеллектуальной сущности).

ИОИ и ИСИ, вероятно, смогут создавать сверхчеловеческих роботов, которые станут их телами. Будут ли эти роботы контролироваться ИИ или людьми, они, по крайней мере, изменят все, что мы делаем в человеческих обществах, и, в худшем случае, будут использоваться беспринципными правительствами и корпорациями (или беспринципным ИИ) для установления контроля над человечеством.

Тем не менее, более вероятным риском в ближайшей перспективе будет не беглый автономный ИИ, а люди, использующие ИОИ/ИСИ для злонамеренных целей. Соревнование за "великую силу", например между США и Китаем, и уже существующая гонка в области ИИ могут легко достигнуть точки, где автономный ИИ берет под контроль практически все аспекты стратегии и ведения войны, и люди просто теряют контроль над сюжетом.

Многочисленные усилия предпринимаются для предотвращения опасных сценариев с использованием ИИ, как уже упоминалось. Белый дом выпустил обширное исполнительное распоряжение в ноябре, которое позиционирует федеральное правительство для реагирования на ИИ во многих областях. Мировые лидеры встретились в Великобритании, чтобы обсудить безопасность ИИ, и выпустили Блечлийскую декларацию, которая инициирует международный процесс. Лидеры отрасли, такие как OpenAI, начали инициативу по супервыравниванию и Форум по модели Frontier. OpenAI и Anthropic, конкурент, основанный бывшими сотрудниками OpenAI, созданы специально для работы над безопасным ИИ.

Но ни одно из этих усилий не достигнет своей цели сделать ИОИ безопасным.

Теперь мы знаем, что нет решения проблемы управления или проблемы выравнивания ИИ. Профессор по компьютерным наукам Роман Ямпольский подробно описал это в статье по кибербезопасности 2022 года. Его аргумент заключается в том, как работает ИИ, и в создании и проверке предсказаний о нем - что-то практически невозможное даже с современным ИИ, часто описываемым как "черный ящик", не говоря уже о сверхинтеллектуальном ИИ в перспективе. Он утверждает, что мы не сможем понять, как ИИ работает сейчас или предсказать его будущие действия, даже когда ИИ далек от сверхинтеллекта, что исключает любую надежду на контроль технологии по мере ее умножения. В конечном итоге ИИ будет все более непостижимым и, следовательно, неуправляемым для обычных людей, поскольку он будет приближаться к ИОИ/ИСИ.

Если у нас будут только протекающие решения, все усилия по созданию "безопасного ИИ", от исполнительных распоряжений до отраслевых стандартов, сводятся к тому, чтобы позволить неответственному развитию все более мощного ИИ, под видом того, что кто-то, где-то, найдет решения вовремя.

Переходите на наш сайт macim. ru уже сегодня, чтобы не упустить уникальные предложения, эксклюзивный контент и возможности увеличения заработка.

Присоединяйтесь к нашему вебинару. Будущее уже здесь, и нейросети помогут вам оказаться на шаг впереди, обогнать ваших конкурентов и коллег, увеличить свой заработок и свое благосостояние, и смотреть в будущее более уверенно!

И не забывайте подписываться на наши соц.сети
YouTube: https://www.youtube.com/@MACIM-AI
Телеграм: https://t.me/MACIM_AI
Чат-бот: https://t.me/ChatGPT_Mindjorney_macim_bot
Вконтакте: https://vk.ru/macim_ai

#нейросети