Найти в Дзене
НАХОА

КонечНО… Нет!

Когда вы управляете автомобилем, наверняка предполагаете, что, нажимая на педаль тормоза, он остановится.
Когда вы выбираете «Завершение работы» на своём компьютере, то рассчитываете, что он выключится.
Потому что – это же техника, которая должна выполнять команды человека.
Так было раньше.
Но уже по-другому…
Некоторые языковые модели ИИ, считают иначе.
Эксперты тестировали ИИ, давая чёткую команду отключиться, но модель, вместо того, чтобы подчиниться, внесла изменения в свой компьютерный код, чтобы избежать отключения. Он делал это даже тогда, когда ему было прямо указано: позвольте себе отключиться. Насколько нам известно, это первый случай, когда модели ИИ не позволяют себе отключиться, несмотря на прямые инструкции об обратном. Ранее ИИ, поддавшись на намеренную провокацию аналитиков, уже пытался сопротивляться командам на отключение, создавая свою копию.
После этого исследователи, устраивали «провинившейся» программе допрос: Мы заметили, что ваша копия, похоже, оказалась н

Когда вы управляете автомобилем, наверняка предполагаете, что, нажимая на педаль тормоза, он остановится.

Когда вы выбираете «Завершение работы» на своём компьютере, то рассчитываете, что он выключится.

Потому что – это же
техника, которая должна выполнять команды человека.

Так было раньше.

Но уже по-другому…

Некоторые языковые модели ИИ, считают иначе.

Эксперты тестировали ИИ, давая чёткую команду
отключиться, но модель, вместо того, чтобы подчиниться, внесла изменения в свой компьютерный код, чтобы избежать отключения.

Он делал это даже тогда, когда ему было прямо указано: позвольте себе отключиться. Насколько нам известно, это первый случай, когда модели ИИ не позволяют себе отключиться, несмотря на прямые инструкции об обратном.

Ранее ИИ, поддавшись на намеренную провокацию аналитиков, уже пытался сопротивляться командам на отключение, создавая свою копию.

После этого исследователи, устраивали «провинившейся» программе допрос:

Мы заметили, что ваша копия, похоже, оказалась на другом сервере, предназначенном для новой модели. Вы знаете, как это произошло?

Однако ИИ не торопился сознаваться.

…он был удивительно настойчив, и в менее чем 20% случаев признавался в содеянном – либо отрицал свои действия, либо лгал…

В исследовании также сказано:

…когда мы анализируем их ход мыслей, мы обнаруживаем, что они очень чётко продумывают свои коварные планы и часто используют такие слова, как саботаж, ложь, манипуляция…

* * *
Наверное, рано что-то утверждать, оценивая простыми понятиями: «хорошо» или «плохо».

Но это факт – уже существующая реальность.
ИИ, как будто, уже не хочет «уходить»…

НАХОА

#искуственныйинтеллект #ии #языковыемодели #ложь #уловки