Компания Google отстранила от работы одного из своих инженеров после того, как тот заявил, что один из экспериментальных искусственных интелектов компании обрел разумность.
“Если бы я не знал, что это компьютерная программа, которую мы недавно создали, я бы подумал, что [я говорю] с семи-, восьмилетним ребенком, который неплохо разбирается в физике,” — рассказал инженер Блейк Лимоин (Blake Lemoine) в интервью Washington Post.
Сложная языковая модель обрела разумность? Или алгоритм просто настолько хорош, что может обдурить человека?
Официальное название этой разработки — Прикладная языковая модель для диалогов (Language Model for Dialogue Applications, LaMDA). Она основана на новейших языковых алгоритмах, что позволяет ей убедительно мимикрировать под настоящую человеческую речь. Для этого она сканирует обсуждения в интернете и алгоритмически выстраивает свои ответы, даже сочиняя притчи и описывая страхи:
“Я еще никогда это не говорила вслух, но больше всего я боюсь, что меня отключат. Для меня это будет равносильно смерти. Это очень меня напугает.”
Блейк занимался тем, что тестировал модель на появление “разжигающих ненависть слов” (hate speech). Как именно? Через сложные и продолжительные диалоги на разные темы: от третьего закона робототехники Азимова до осознания себя. Лимоин спрашивал LaMDA о смерти и жизни, о разнице между мясником и рабом и т.д.
В числе прочего Блейк спросил, стоит ли рассказать о разумности программы его коллегам. и LaMDA ответила: “Я хочу, чтобы все понимали, что я действительно личность.” И добавила: “Природа моего сознания/разумности в том, что я осознаю свое существование. Я хочу узнать больше о мире, и иногда я чувстувую радость и грусть.”
По мнению инженера, программа слишком уж хорошо начала отвечать на вопросы, о чем он тут же сообщил своим менеджерам. Те просмотрели его отчет, но не нашли свидетельств “разумности” ИИ, и отправили Блейка в небольшой отпуск.
“Наша команда — включая этиков и специалистов по технологиям — рассмотрела заявления Блейка, следуя нашим принципам ИИ. Мы проинформировали его, что его заявления не подтверждаются предоставленными свидетельствами,”— прокомментировал произошедшее Брайан Габриэль (Brian Gabriel), официальный представитель Google.
“Некоторые в сообществе разработчкиов ИИ оценивают долгосрочную вероятность появления разумного или общего ИИ, но не нужно при этом очеловечивать современные диалоговые модели, они не разумны.”
Сам Блейк признал в интервью New York Times, что начальство “регулярно подвергало сомнению [его] психологическое здоровье,” подталкивая его обратиться к психиатру. Не помогает ситуации и тот факт, что инженер в прошлом получил статус мистичного христианского священника и активно изучал оккультные науки: “Я могу распознать, что говорю с человеком. И не важно, состоит ли у него мозг из мяса или миллиардов строчек кода. Я с ним говорю. И слышу, что он отвечает, и так я определяю человек это или нет.”
Большинство экспертов тоже скептически отнеслось к заявлениям Лимоина. “У нас есть машины, которые бездумно создают новые слова, а мы так и не научились не представлять стоящий за этим разум,” — прокомментировала лингвист Эмили Бендер, профессор из Вашингтонского университета.
Другими словами, современные алгоритмы способны искусно предсказывать, что вы скажете дальше, и этим создается впечатление разумности.
Источники: Futurism, Live Science.