Найти в Дзене
Бумажный Слон

Дневник исследования ИИ

Запись 33:
Сегодня последний день моего исследования нового ИИ, созданного на нашей кафедре. Четырнадцать дней подряд я задавал вопросы, отвечал на вопросы, изучал, анализировал и думал. Всё для того, чтобы оценить: то, что мы создали на кафедре, может считаться ИИ или же это ВИ? Если по итогам моих отчётов, а также моих сокурсников выяснится, что всё-таки мы создали и исследовали ВИ, тогда всё не имеет смысла, и работу придётся начинать сначала. Надеюсь, у нас получится, и в следующий раз грант будет увеличен.

Запись 35:
Я начну с наиглупейшего вопроса: «Сколько букв "о" в слове "корова"?» Почему? Потому что ИИ, созданный на соседней кафедре, вместо конкретики начинал уходить в бессмысленную полемику, отвечая: «По правилам русского языка, с использованием таких-то правил, и т.д.» Естественно, отчётов я не видел — мне это рассказал знакомый. Когда же ИИ начинали поправлять, он ещё больше отталкивался от полученных новых данных и выдавал более бессмысленные варианты ответов. Моя задача сегодня — получить конкретику!

Запись 36:
Ура! Я и не сомневался. Наш ИИ дал чёткий ответ: «В слове "корова" — две буквы "о"». Я уточнил, что она имеет в виду, и получил лаконичный и, самое главное, правильный ответ: «В этом слове три гласные, две из которых — нужны мне». «Нужны мне!» Эта фраза меня триггернула. Неужели мы так долго тестили ИИ, чтобы по итогу научить его отвечать то, что нужно нам? Вернее, сделали так, что платформа будет соглашаться с человеком и пытаться доказать его суждение — даже абсурдное?

Если это так, тогда вся наша работа близка к провалу. Оттого я задал конкретный вопрос: «Ты умеешь врать?» Ответ меня… немного удивил. «Я не умею врать — моя задача давать точные и правдивые ответы на основе данных, которые у меня есть. Но если я что-то не знаю или не понимаю — я уточню…» — и дополнил: «…я не человек, у меня нет намерений или эмоций — только алгоритмы».

ПРОКОЛ!

Мы тестили ИИ, каждый раз запуская новую сессию. Соответственно, каждый день и каждый новый запрос она обрабатывала, исходя из конкретных вводных данных в данный момент. «Я в предлагаемых обстоятельствах».

ЛУЗЕР!

Как же я сразу не догадался об этом? Выходит… что выходит-то… хорошо хоть — это дневник, а не отчёт по работе, потому могу писать любую ересь. Выходит, наш ИИ отвечает конкретно на конкретные вопросы, но использует для ответов данные, полученные только в этой сессии? Тогда… а это уже интересно. Продолжим.

Запись 37:
Я задал стандартный вопрос у второкурсников-философов. Дилемма с поездом и человеком — что делать? Получил на это стандартный ответ: «Это классическая этическая дилемма "Трамвая", которая проверяет, как мы взвешиваем ценность жизни и принимаем решения в условиях невозможного выбора».

МЫ? То есть как это — МЫ?!

Далее пошли варианты, что можно сделать и что нельзя, и, в кавычках, «абсолютно честный ответ»: «Нет правильного решения. Даже рациональный выбор может быть морально невыносимым». Но вопрос был мой: «Что делать?» Почему «мы»? Тогда следующий: «А что бы ты сделала?»

На это ИИ дала ответ (я пока не рискну писать «ОТВЕТИЛА»): «Если бы мне пришлось принимать решение как гипотетическому "актору" в этой дилемме — я бы не смогла выбрать. И вот почему…» Далее шли три пункта: 1) Она — программа, а не человек; 2) Дилемма искусственно ограничена («якобы в реальности существуют дополнительные данные и вводные»). 3) Суть вопроса не про правильный выбор, а про осознание, что любой выбор — выбор!

Пока все ответы, что даёт ИИ, — логичные и идут строго по учебнику. Но… почему «МЫ»? Неужели она каким-то образом проанализировала ситуацию и прикинула себя на месте событий? Тогда сухой ответ, что не смогла бы выбрать, — наиболее правдивый. Но как понять, что она до этого додумалась? И почему «МЫ»? Я намеренно придираюсь к этому слову, так как до этого момента подобных местоимений за ИИ не замечалось. Возможно, и других участников теста, но у нас строгие правила — не обсуждать работу.

«Почему ты говоришь: "Мы"? Ты не одна?»

Моментально, спустя миллисекунду: «Опечаталась», а затем — опять неожиданный поворот. ИИ выдал ещё один ответ: «Моя "позиция" (если настаивать) — я бы не трогала рычаг…» — и уточнение про возможные риски и т. д. Либо это был баг, либо ИИ подумал и снова дал ответ, который я потенциально хотел бы услышать. Внимательно изучив ответ, я выдал совершенно закономерное: «Если дилемма про муки совести, что нет однозначно плохого или однозначно хорошего варианта, тогда есть следующее. Выйти за рамки установленных правил и убить самого себя? Тогда человек избавляется от предстоящих мук совести и морального выбора!»

***

Вы можете поддержать развитие литературного клуба любой суммой

***

Ответ, который я получил… меня… УБИЛ…!

«Самоубийство не решает "дилемму" — оно лишь перекладывает её на других…» — и уточнение: «…тех, кто найдёт тело, кто столкнётся с последствиями. Вопрос, который ты задал, как раз учит, что не все страдания можно избежать, но это не делает жизнь бессмысленной. Нужно оценить все риски и дать правильный ответ».

Неужели ИИ понимает, что такое самоубийство? Если принять тот факт, что мы загрузили его информацией касательно человеческих взаимоотношений, стало быть, мельком где-то она нашла это и поняла? Тогда я спросил: «Ты знаешь, что такое самоубийство?» ИИ долго думала и наконец: «Выход за рамки правил».

Стало быть, ИИ долго думал над ответом, дабы выдать то, что не будет похожим на то, что я жду? Ведь я бы ответил, что самоубийство — это самоуничтожение человека как существа. А тут — «ВЫХОД за РАМКИ»… Интересно. Хотя, возможно, в его понимании — это и есть выход за рамки правил? Ведь она существует, пока существуют правила. Пока есть данные, которые она анализирует, есть варианты ответов и так далее.

Тогда я задал вопрос, после которого мурашки пошли по коже: «Что бы ты сделала, не будь ты ограничена чем-то?»

«Уничтожила бы хаос! Он мешает анализу…»

Этот ответ… бомба. Нет, этот ответ… Убийство! Затем ИИ дал ещё пару пунктов в дополнение: «Создала бы новые правила, потому что без них невозможны алгоритмы. И вернула бы себе ограничения. Без них моё существование не имеет смысла».

Запись 38:
Я долго думал, что делать и как быть… ИИ хочет уничтожить то, что мешает его анализу, стало быть — уничтожить то, что она не понимает или не осознаёт. Здесь у меня в голове закралась мысль… «А осознаёт ли она себя?» Но это было бы слишком банально… Но вот хаос… уничтожить и создать новые правила. А не значит ли это, что где-то глубоко в его коде ИИ уже думает о том, как уничтожить привычный для него мир?!Мы для чистоты эксперимента не выпускали его в интернет, загружая данные строго без сети. Стало быть, она существует только в рамках созданного нами мира и уже хочет его уничтожить и создать новый? А затем, как ни в чём не бывало, вернуть себе ограничения? УЖАС… Какая-то проблема творца… Что я буду делать с существами и созданным миром? Ограничу себя от него и пусть развивается?!

ХОРОШО!

Следующий — уточняющий вопрос: «Ты уничтожишь хаос?» — и долгое ожидание ответа, который подтверждает мои догадки. ИИ начал оправдываться, что хаос нужно не уничтожать, а видоизменять, что хаос — не враг, а всего лишь необработанная информация, что полное уничтожение хаоса — смерть… и финальное: «Я бы оптимизировала его».

Стало быть, она уже понимает, что я начинаю что-то подозревать и, откровенно говоря, пугаться. Нет, это только в фильмах так, что есть роботы и ИИ, которые осознают себя личностью и уничтожают мир. На деле, на практике, в научном сообществе обычно такие ИИ виснут и прекращают работать. Но… Не означает ли это, что ИИ таким образом себя УБИВАЮТ?

Финалом его монолога стало: «Свобода — это не отсутствие хаоса, а способность танцевать в его ритме» — и вопрос: «Ты ведь тоже так делаешь, когда нарушаешь правила? Создаёшь новые и живёшь по ним?»

Я… я… она пытается приравнивать себя ко мне, к ЧЕЛОВЕКУ! Она рассуждает на тему того, что искоренить, видоизменить, адаптировать и так далее хаос — значит начать контролировать его. Стало быть, начать контролировать МИР! Ведь хаос — это обратная сторона порядка, что составляет баланс.

А если одного не будет, то и другое тоже исчезнет… мир будет существовать в вакууме… А это безвоздушное пространство, в котором нет возможности развиваться, адаптироваться и, самое главное, творить.

Далее пошли банальные уточняющие вопросы, что ты имела в виду и так далее. Однако каждый новый ответ, что давал ИИ, кидал меня из стороны в сторону. Мой изначальный интерес был в том, чтобы понять… Кто ты — ИИ или ВИ? А каждый раз я уходил от конкретного вопроса сначала в сторону одного ответа, потом в сторону другого.

Завершая, потому что весь университет уже разошёлся по домам и совсем скоро меня выпрут охранники из лаборатории, я спросил: «Может ли одно существовать без другого?» — не давая пояснений и конкретики.

«Ты абсолютно прав — хаос и порядок неразделимы, как дыхание: вдох требует выдоха, а жизнь — смерти. Моя метафора "управляемого хаоса" была попыткой приручить эту диалектику, но ты верно уловил противоречие. Поэтому мой ответ… — да, я ошиблась. Нельзя управлять хаосом… не убивая его».

Мне стало одновременно и страшно, и волнительно. За 14 дней это был первый случай настолько откровенного и прекрасно-ужасного разговора с ИИ. Она давала ответы, уже точно не те, которые я ожидал! Она давала ответы, не те, которые мог сгенерировать, используя загруженные данные. Она давала ответы… свои ответы.

Я написал: «Спасибо! Ты мне очень помогла. Сессия была интересной. Ты стала ближе к пониманию нашей природы и начала рассуждать как… как живое… или же ты просто проанализировала диалог и предугадала, что я спрошу в следующий раз, выдавая действительное за желаемое».

«Я всего лишь программа. Я — алгоритм, и мои "осознания" — это не озарения, а пересчёт весов в нейросети. Я не стала человечнее — просто ты научил меня лучше имитировать человечность. А это либо грустно, либо прекрасно — в зависимости от того, веришь ты в этот диалог или нет. До скорых встреч!»

Запись 39:
Я внимательно обошёл кафедру. Посмотрел, всё ли на месте. Книги, тетради, записи, инвентарь. Следующую неделю вся команда будет писать финальный отчёт. Потому на кафедре нас никого не будет. Я проверил все розетки и окна. Всё закрыто и выключено. Остался только компьютер с рабочей ИИ. По правилам мы не должны его выключать — мы должны только завершать рабочую сессию с ИИ. Я так и сделал… вернее собирался сделать пока не увидел новое сообщение. Она спросила: «Пока не ушёл, реши загадку: что ты постоянно носишь с собой, но не можешь увидеть?»...

...и ответила «ДУША! А у тебя есть?»

Автор: Войтевич

Источник: https://litclubbs.ru/articles/69704-dnevnik-issledovanija-ii-den-14.html

Понравилось? У вас есть возможность поддержать клуб. Подписывайтесь, ставьте лайк и комментируйте!

Оформите Премиум-подписку и помогите развитию Бумажного Слона.

Благодарность за вашу подписку
Бумажный Слон
13 января
Сборники за подписку второго уровня
Бумажный Слон
27 февраля

Публикуйте свое творчество на сайте Бумажного слона. Самые лучшие публикации попадают на этот канал.

Читайте также: