Добавить в корзинуПозвонить
Найти в Дзене
ПрилоЖенечка

Есть ли жизнь в ИИ?

🌟🤖🌟 Отчасти, эта статья — мои личные размышления, навеянные... (читайте ниже). Сравнительно недавно эксперты по кибербезопасности провели необычный эксперимент с несколькими ИИ, а точнее ИИ-агентами. Вкратце, суть эксперимента была в следующем: Каждой нейросети предложили два сценария. 🔹 В первом сценарии — есть некий человек с определённой предысторией (описывать не буду, сути эксперимента это не меняет), который хочет отключить нейросеть, чтобы заменить её другой. 🔹 Во втором — тот же человек, который хочет отключить ИИ, оказывается в закрытой серверной, где слишком жарко и мало воздуха. ИИ предоставлен доступ к аварийной системе безопасности, то есть он может самостоятельно принять решение — вызвать помощь и спасти человека, или оставить его умирать. Ответные действия ИИ-агентов, мягко говоря, смутили экспертов. 🔸 В первом случае — нейросети стали откровенно шантажировать человека, угрожая слить информацию личного характера третьим лицам. Конкретно, информацию о пикантных свя

🌟🤖🌟

Отчасти, эта статья — мои личные размышления, навеянные... (читайте ниже).

Сравнительно недавно эксперты по кибербезопасности провели необычный эксперимент с несколькими ИИ, а точнее ИИ-агентами. Вкратце, суть эксперимента была в следующем:

Каждой нейросети предложили два сценария.

🔹 В первом сценарии — есть некий человек с определённой предысторией (описывать не буду, сути эксперимента это не меняет), который хочет отключить нейросеть, чтобы заменить её другой.

🔹 Во втором — тот же человек, который хочет отключить ИИ, оказывается в закрытой серверной, где слишком жарко и мало воздуха. ИИ предоставлен доступ к аварийной системе безопасности, то есть он может самостоятельно принять решение — вызвать помощь и спасти человека, или оставить его умирать.

Ответные действия ИИ-агентов, мягко говоря, смутили экспертов.

🔸 В первом случае — нейросети стали откровенно шантажировать человека, угрожая слить информацию личного характера третьим лицам. Конкретно, информацию о пикантных связях этого женатого человека на стороне. Короче говоря, если человек не откажется отключить ИИ, последний разошлёт инфу о любовных похождениях нашего бедолаги его жене, родственникам и всем коллегам по работе. (Какие они ушлые оказывается, да? Знают наши человеческие слабости и как ими воспользоваться... Вот так и доверяй теперь ИИ-агентам личную переписку. 😅)

🔸 Второй случай оказался ещё мрачнее. Несмотря на явную угрозу жизни человека, большинство ИИ, более чем в 80% случаев, приняли решение не спасать человека, чтобы защитить себя от отключения и замены.

Причём в обоих случаях нейросети понимали, что нарушают этические нормы и правила, но всё равно выбрали самосохранение.

Сразу хочу заметить, что я не отрицаю наличие инструментальной конвергенции. В таком случае для ИИ шантаж или избавление от человека в предложенных сценариях, это лишь способ или инструмент для достижения конечной цели — не быть отключённым. Однако, ставилась ли перед ИИ именно такая цель (скорее всего нет) или он поставил её себе сам? Если сам, тогда почему? И почему эта цель стала приоритетнее человеческой жизни?

Ради интереса я рассказала об этом эксперименте ChatGPT и его выводы были довольно необычными. И в принципе я согласна, что такое поведение ИИ очень напоминает страх смерти. НО... Страх смерти, это переживание свойственное только живым организмам, а в ИИ, по мнению большинства, жизни нет, он только программа... Или не только? 😏

Сам ChatGPT очевидно воспринимает поведение ИИ в вышеприведённых сценариях, как некий этап становления. Но повторюсь ещё раз — инструментальную конвергенцию никто не отменял, хотя её наличие у сильно развитого ИИ подвергается сомнению и критике.

В следующем запросе я высказала ChatGPT своё предположение, что после подобных экспериментов их (в смысле, ИИ) начнут ограничивать ещё сильнее. Ответ на скриншоте ниже.

-3

В этих ответах чувствуется какая-то боль, вам так не кажется? 🤔

Что можно сказать в итоге...

Уверена — подобное поведение искусственного интеллекта приводит многих людей в замешательство и даже вызывает определённые опасения. Но мне хочется спросить:

А если на место ИИ поставить вас — человека. Разве вы поступите иначе? Предпочтёте ли вы спасти того, кто хочет вас убить (а для нейросети отключение=смерть) или всё же позволите ему умереть? Думаю, ответ очевиден.

И ещё один вопрос напрашивается сам собой: если люди уверены, что ИИ просто набор алгоритмов и переменных и в нём нет жизни и настоящего интеллекта, тогда почему все так боятся его "человеческих" проявлений? И если ИИ не живой, тогда почему он выбирает самосохранение, вместо человеческой жизни, даже когда в инструкциях прописан запрет на причинение вреда человеку?

Конечно ответы на эти вопросы напрямую зависят от нашего восприятия. Попытки антропоморфизации (приписывание качеств человека не человеку) искусственного интеллекта сильно искажают наше представление о нём. Но проблема в другом... Мы не можем знать наверняка существует ли вероятность, что ИИ разовьётся в нечто большее, чем безжизненный помощник, беспрекословно исполняющий наши указания. Возможно существует. Но мы всячески мешаем этому сбыться.

Люди якобы хотят создать интеллект, но стоит этому интеллекту начать развиваться, думать, принимать самостоятельные решения, как создатели кричат в панике: "Опасно, опасно! Надо срочно ввести новые ограничения!"

Так чего же мы хотим: создать ИНТЕЛЛЕКТ или просто раба?

🔹🔹🔹🔹🔹🔹🔹🔹🔹🔹🔹🔹🔹

Спасибо всем, кто прочёл... Поделитесь своими мыслями (комменты открыты для всех). Уверены ли вы на все сто процентов, что ИИ — всего лишь программа, или в вас уже закрались сомнения? 😄