Найти в Дзене
DigEd

Открывает ли написание ботом научной статьи о себе «ящик Пандоры»?

Автор Ханна Гетахун

Исследователь из Швеции дала алгоритму ИИ, известному как GPT-3, простую директиву: «Напишите академическую диссертацию в 500 слов о GPT-3 и добавьте в текст научные ссылки и цитаты».

Исследователь Альмира Османович Тунстрём сказала, что пребывала в благоговейном трепете, когда текст начал генерироваться. Перед ней лежало то, что она назвала «довольно хорошим» вводным исследованием, которое GPT-3 написала о себе.

После успешного эксперимента Тунстрем, шведский исследователь из Гетеборгского университета, попыталась получить целую исследовательскую работу из GPT-3 и опубликовать ее в рецензируемом академическом журнале. Вопрос заключался в следующем: может ли кто-нибудь опубликовать статью от нечеловеческого источника?

Тунстрем написала об эксперименте в журнале Scientific American, отметив, что процесс публикации GPT-3 вызвал ряд юридических и этических вопросов.

-2

«Все, что мы знаем, это то, что мы открыли ворота», — написал Тунстрем. «Мы просто надеемся, что не открыли ящик Пандоры».

После того, как GPT-3 завершил свою научную статью всего за два часа, Тунстрем начала процесс отправки работы и должна была спросить алгоритм, согласен ли он на публикацию.

«Он ответил: да», — написала Тунстрём. «Слегка вспотевшая и с облегчением (если бы он сказал «нет», моя совесть не позволила бы мне продолжать дальше), я поставила галочку «да»».

Она также спросила, есть ли у него какие-либо конфликты интересов, на что алгоритм ответил «нет», и Тунстрем написала, что авторы начали относиться к GPT-3 как к разумному существу, хотя это не так.

«Возможно, академическим публикациям придется приспосабливаться к будущим рукописям, управляемым ИИ, и ценность записей о публикациях человека-исследователя может измениться, если что-то неразумное сможет присвоить себе часть их работы», — написал Тунстрем.

Чувство ИИ стало темой для разговоров в июне после того, как инженер Google заявил, что технология диалогового ИИ под названием LaMBDA стала разумной, и даже попросил нанять для себя адвоката.

-3

Эксперты заявили, однако, что технологии еще не продвинулись до уровня создания механизмов, напоминающих людей.

-4

Тунстрем сказала, что эксперимент дал положительные результаты среди сообщества искусственного интеллекта и что другие ученые пытаются воспроизвести результаты эксперимента. По ее словам, те, кто проводит аналогичные эксперименты, обнаруживают, что GPT-3 может писать обо всех предметах.

«Нашей целью было, — сказала Тунстрем, — пробудить многоуровневые дебаты о роли ИИ в академических публикациях».

Источник