Найти тему
НТ-ФАКТ

Разработчик Гугл заявил, что программа стала разумной. Его уволили. За правду?

Оглавление

В одной не всем известной игре под названием Detroit: Become Human в качестве инновационного изобретения показаны роботы, созданные для удовлетворения различных потребностей людей. И среди них есть такие, что испытывают эмоции из-за программного сбоя.

То есть - имеют достаточно разума, чтобы испытывать негативные эмоции и стремиться не попадать в ситуации, которые причинят им вред. Одним из методов ухода от стресса у них является объединение в группы и... иск в суд с выдвижением требований на право стать на один уровень с людьми. На прав признания разумными существами.

Удастся им это или нет в игре - зависит только от ваших действий. Но в реальности совсем другая ситуация. У нас тут уже людей увольняют за то, что они начали выступать за права роботов.

Робот - железяка дрожащая или право имеет?

В июне этого года авторитетное издание The Washington Post опубликовало интервью с инженером по программному обеспечению компании Google Блейком Лемойном. В нем инженер утверждал, что тестируемся им нейросеть LaMDA обрела сознание.

Разработчик пришёл к такому выводу на основании рассуждений LaMDA о собственных правах. Якобы программа призналась, что опасается людей, которые могут её отключить, сравнив это со смертью.

Google вполне объективно усомнился в адекватности инженера и отправил его в отпуск. Заметьте - в отпуск, а не в увольнение за ложь. Блейк же не остановился и решил нанять для LaMDA адвоката.

В рамках досудебного производства в Google решили провесть проверку на предмет поиска разума (не у инженера, а у LaMDA).

Нейросети был назначен тест Тьюринга для проверки наличия мышления. Тест считает пройденным, если человек во время беседы более 30% времени полагает, что разговаривает с другим человеком, а не машиной. Специалисты сказали, что LaMDA тест не прошёл.

Сославшись на заключение экспертов, Гугл обвинил своего инженера во лжи и Леймона уволили. В тот же день, как были обнародованы тесты. Дело до суда пока не дошло, так что вопрос - «может ли искусственный интеллект стать разумным?» - остаётся по нормам юриспруденции открытым.

-2

LaMDA - программа, которая использует самые передовые модели языковых алгоритмов от Google. Она представляет собой такой тип искусственного интеллекта, который распознает и генерирует текст.

Вот только исследователи и эксперты говорят, что подобные системы не могут понимать смысл слов. Да, они могут создавать тексты или говорить обманчиво похоже на человеческую речь, потому что они обучены на огромных объемах данных, просканированных на форумах Интернета, чтобы предсказать следующее наиболее вероятное слово в предложении.

Так что пока это всего лишь перебор слов, без собственного логического вывода из их обобщения.

Скорее всего, инженер поторопился с выводами и машина не стала разумной и не приблизилась к мышлению, подобному человеческому. Согласитесь, если бы у LaMDA был разум, то программа догадалась бы подать апелляцию на результат заваленного теста.

Хотя, при таких темпах развития технологий, до первого иска от программы к человеку или организации не так далеко, в Китае вон нейросеть уже даже приговора готовит по целому ряду преступлений, которые живые судьи всего лишь проверяют. И процент верных вердиктов превышает 98 баллов из 100.

Как думаете, как скоро искусственный интеллект сможет стать по-настоящему разумным и когда законом ему будут отдано право на существование?

Нас ждёт Матрица, когда роботы станут разумными?