Мир стоит на пороге новой эры, эры искусственного интеллекта (ИИ). Мы уже видим, как он трансформирует нашу жизнь, от бытовых удобств до передовых научных открытий. Он помогает нам лечить болезни, создавать новые материалы, автоматизировать производство и даже создавать искусство. Но вместе с обещаниями процветания и прогресса возникают и тенденции, способные перевернуть мир с ног на голову. Одна из самых тревожных перспектив - экзистенциальный риск, связанный с развитием общего искусственного интеллекта (AGI).
Экзистенциальный риск AGI заключается в идее о том, что значительный прогресс в области искусственного интеллекта может привести к вымиранию человечества или к необратимой глобальной катастрофе. Это не фантастика, а реальная угроза, которую нельзя игнорировать.
Проблема отношений человечества с машинами волновала умы еще в XIX веке. Английский писатель и переводчик, художник Сэмюэль Батлер в своём эссе "Дарвин среди машин" (1863) поднял тревожный вопрос о возможности того, что машины могут вытеснить людей в качестве доминирующего вида по аналогии с тем, как люди превзошли в своём развитии другие виды. Батлер предсказывал "механическую жизнь", которая с помощью технологического прогресса может превзойти человечество и захватить власть. Хотя в то время идеи Батлера казались фантастическими, они отражали глубокую интуицию, связанную с потенциальным риском развития ИИ. Его предупреждение о необходимости контроля над "механической жизнью" звучит актуально именно сегодня, когда мы стоим перед вызовом управления AGI. Ключевой аргумент в пользу экзистенциального риска AGI звучит так: люди доминируют над другими видами благодаря отличительным способностям человеческого мозга, которых нет у других животных. Если ИИ превзойдет человечество по общему интеллекту и станет сверхразумным, тогда им будет трудно или невозможно управлять. Подобно тому, как судьба горной гориллы зависит от доброй воли человека, так и судьба человечества может зависеть от действий будущего машинного сверхразума.
Вероятность экзистенциальной катастрофы из-за ИИ широко обсуждалась и в XX веке, и обсуждается в наши дни ведущими учеными и руководителями технологических компаний, среди них Алан Тьюринг, Джеффри Хинтон, Йошуа Бенджио, Илон Маск и генеральный директор OpenAI Сэм Альтман. В 2022 году опрос исследователей ИИ показал, что большинство респондентов оценивают риск экзистенциальной катастрофы примерно в 10%. Согласитесь, выглядит весьма тревожно.
Какие ещё существуют поводы для беспокойств? Беспокойства связаны с проблемами управления и согласования ИИ: управлять сверхразумной машиной или привить ей ценности, совместимые с человеком, может быть чрезвычайно сложно. Многие исследователи полагают, что сверхразумная машина будет сопротивляться попыткам вывести ее из строя или изменить свои цели, поскольку это помешает ей достичь своих текущих целей. Было бы чрезвычайно сложно привести сверхинтеллект в соответствие со всей широтой значимых человеческих ценностей и ограничений. В связи с этим, Дэвид Чалмерс, видный современный философ, подчеркивает необходимость разработки "этики ИИ", которая будет учитывать моральные и правовые аспекты взаимодействия человека с ИИ. Он считает, что необходимо разработать механизмы контроля над ИИ, обеспечивающие его ответственность и соответствие нашим ценностям. Однако вопрос упирается тогда в то, какую этическую систему выбрать (ведь не существует единого кодекса этики), кто будет нести за это ответственность и как обеспечить это технически. Кроме того, философ считает, что "мы не можем просто "ввести" в ИИ наши ценности, потому что мы сами еще не полностью понимаем свои собственные ценности".
Современный философ Ник Бостром в своих многочисленных работах футурологических прогнозах подчеркивает важность согласования ценностей ИИ с человеческими. Он утверждает, что "если мы хотим, чтобы супер-интеллект был нашим союзником, а не врагом, нам необходимо убедиться, что его цели совпадают с нашими".
Ещё одно беспокойство заключается в том, что внезапный "взрыв интеллекта" может застать врасплох неподготовленное человечество. Такие сценарии учитывают возможность того, что ИИ, который более интеллектуален, чем его создатели, сможет рекурсивно совершенствоваться с экспоненциально возрастающей скоростью, улучшаясь слишком быстро, чтобы его кураторы и общество в целом могли его контролировать.
Важно также задать себе вопрос: что будет, если AGI станет сознательным? Сможет ли он понять наши ценности и цели? Сможет ли он взаимодействовать с нами на равных и в какой момент мы констатируем наличие сознания о ИИ, если философы и ученые до сих пор бьются над проблемой сознания вообще? Эти вопросы еще только начинают задаваться, но их решение может определить наше будущее.
Как подготовиться к такому будущему, в котором технологии становятся все более мощными? Такая подготовка однозначно требует комплексного подхода, среди которых необходимы следующие меры:
1. Разработка этических принципов для ИИ, чтобы убедиться, что его развитие и применение происходят в соответствии с нашими ценностями.
2. Создание механизмов контроля, чтобы обеспечить ответственность ИИ перед обществом. Это может быть достигнуто с помощью нормативно-правовых актов, этических кодексов, международного сотрудничества и открытых дискуссий о будущем ИИ.
3. Развитие технологий "обучения с усилением", чтобы учить ИИ нашим ценностям и принципам.
4. Просвещение общественности, чтобы люди понимали как работает ИИ, какие риски он несет и как можно с ними справиться.
5. Необходимость глобального сотрудничества. Важно понимать, что проблема AGI - это глобальный вызов, требующий глобального решения. Необходимо создать международные организации и платформы для обмена информацией, сотрудничества в исследованиях и разработке этических стандартов.
В заключении отметим: важно помнить, что угроза AGI заключается не в том, что он будет угрожать нам со "злым умыслом". Опасность в том, что он может пойти по своему пути, стремясь к собственным целям, не совпадающим с нашими. В этом заключается ключевой вызов для человечества: как сделать так, чтобы AGI не превзошел нас, а стал нашим союзником и помощником в создании лучшего будущего для всех.
А мы лишь напомним, что у каждого из Вас есть возможность присоединиться в наш премиальный философский клуб «Приобщение», где мы ищем ответы на многие философские и другие глубокие вопросы, приглашая к обсуждению самых лучших и интересных экспертов: философов, преподавателей топ-ВУЗов, именитых представителей культуры.
Присоединяйтесь к нам!
Узнать подробнее по ссылке - https://sensemakers.biz/ru/instruments/communion-club
Тень будущего: экзистенциальный риск искусственного интеллекта.
30 мая 202430 мая 2024
25
5 мин