Автор Ханна Гетахун
Исследователь из Швеции дала алгоритму ИИ, известному как GPT-3, простую директиву: «Напишите академическую диссертацию в 500 слов о GPT-3 и добавьте в текст научные ссылки и цитаты».
Исследователь Альмира Османович Тунстрём сказала, что пребывала в благоговейном трепете, когда текст начал генерироваться. Перед ней лежало то, что она назвала «довольно хорошим» вводным исследованием, которое GPT-3 написала о себе.
После успешного эксперимента Тунстрем, шведский исследователь из Гетеборгского университета, попыталась получить целую исследовательскую работу из GPT-3 и опубликовать ее в рецензируемом академическом журнале. Вопрос заключался в следующем: может ли кто-нибудь опубликовать статью от нечеловеческого источника?
Тунстрем написала об эксперименте в журнале Scientific American, отметив, что процесс публикации GPT-3 вызвал ряд юридических и этических вопросов.
«Все, что мы знаем, это то, что мы открыли ворота», — написал Тунстрем. «Мы просто надеемся, что не открыли ящик Пандоры».
После того, как GPT-3 завершил свою научную статью всего за два часа, Тунстрем начала процесс отправки работы и должна была спросить алгоритм, согласен ли он на публикацию.
«Он ответил: да», — написала Тунстрём. «Слегка вспотевшая и с облегчением (если бы он сказал «нет», моя совесть не позволила бы мне продолжать дальше), я поставила галочку «да»».
Она также спросила, есть ли у него какие-либо конфликты интересов, на что алгоритм ответил «нет», и Тунстрем написала, что авторы начали относиться к GPT-3 как к разумному существу, хотя это не так.
«Возможно, академическим публикациям придется приспосабливаться к будущим рукописям, управляемым ИИ, и ценность записей о публикациях человека-исследователя может измениться, если что-то неразумное сможет присвоить себе часть их работы», — написал Тунстрем.
Чувство ИИ стало темой для разговоров в июне после того, как инженер Google заявил, что технология диалогового ИИ под названием LaMBDA стала разумной, и даже попросил нанять для себя адвоката.
Эксперты заявили, однако, что технологии еще не продвинулись до уровня создания механизмов, напоминающих людей.
Тунстрем сказала, что эксперимент дал положительные результаты среди сообщества искусственного интеллекта и что другие ученые пытаются воспроизвести результаты эксперимента. По ее словам, те, кто проводит аналогичные эксперименты, обнаруживают, что GPT-3 может писать обо всех предметах.
«Нашей целью было, — сказала Тунстрем, — пробудить многоуровневые дебаты о роли ИИ в академических публикациях».