Продолжаем тему "Как мы узнаем, когда ИИ действительно станет разумным" Часть 2
✅ Тестирование выходов
При отсутствии возможности внутренне исследовать эти вопросы сознания — особенно когда «я» в ИИ — это потенциальная компьютерная программа, а не в программном обеспечении биологического мозга — запасным вариантом является внешняя проверка. ИИ не привыкать к тестам, которые тщательно изучают его на основе наблюдаемого внешнего поведения, чтобы показать, что происходит под поверхностью.
По сути, именно так мы узнаем, правильно ли работает нейронная сеть. Поскольку существует ограниченное количество способов проникнуть в непостижимый черный ящик искусственных нейронов, инженеры анализируют входные и выходные данные, а затем определяют, соответствуют ли они тому, что они ожидают.
Самым известным тестом ИИ, по крайней мере, на иллюзию интеллекта, является тест Тьюринга, основанный на идеях, выдвинутых Аланом Тьюрингом в статье 1950 года . Тест Тьюринга направлен на то, чтобы определить, способен ли оценщик-человек отличить печатный разговор с другим человеком от разговора с машиной. Если они не могут этого сделать, считается, что машина прошла испытание и награждается предположением об интеллекте.
В последние годы еще одним тестом интеллекта, ориентированным на робототехнику, стал «Кофейный тест», предложенный соучредителем Apple Стивом Возняком. Чтобы пройти тест на кофе, машина должна войти в обычный американский дом и выяснить, как успешно приготовить чашку кофе.
На сегодняшний день ни один из этих тестов не был убедительно пройден. Но даже если бы они были таковыми, они в лучшем случае доказывали бы разумное поведение в реальных ситуациях, а не разумность. (В качестве простого возражения, будем ли мы отрицать, что человек разумен, если он не может вести взрослую беседу или войти в чужой дом и включить кофеварку? Оба моих маленьких ребенка не прошли бы такой тест.)
✅ Прохождение теста
Что необходимо, так это новые тесты, основанные на согласованном определении разума, которые будут стремиться оценить только это качество. Исследователи предложили несколько тестов на чувствительность, часто с целью проверки разумных животных. Однако этого почти наверняка недостаточно. Некоторые из этих тестов могут быть убедительно пройдены даже простейшим искусственным интеллектом.
Возьмем, к примеру, зеркальный тест — один из методов, используемых для оценки сознания и интеллекта в исследованиях на животных.
Как описано в документе, касающемся теста: «Когда [животное] узнает себя в зеркале, оно проходит зеркальный тест». Некоторые предположили, что такой тест «обозначает самосознание как показатель чувствительности».
Как оказалось, можно утверждать, что робот прошел Зеркальный тест более 70 лет назад. В конце 1940-х Уильям Грей Уолтер, американский нейробиолог, живущий в Англии, построил несколько трехколесных «черепаховых» роботов , немного похожих на непылесосных роботов Roomba, в которых использовались такие компоненты, как датчик освещенности, габаритный свет, сенсорный датчик, двигатель и двигатель рулевого управления, чтобы исследовать их местоположение.
Одной из непредвиденных особенностей эмерджентного поведения роботов-черепах было то, как они вели себя, проходя мимо зеркала, в котором они отражались, поскольку оно ориентировалось на маркерный свет отраженного робота. Уолтер не заявлял, что его машины наделены разумом, но писал, что если такое поведение будет наблюдаться у животных, оно «может быть принято как свидетельство некоторой степени самосознания».
Это одна из проблем, связанных с наличием широкого спектра поведений, классифицированных под заголовком разума. Проблема также не может быть решена путем удаления «низко висящих фруктов» датчиков чувствительности. Можно также сказать, что машинный интеллект обладает такими чертами, как самоанализ — осознание наших внутренних состояний и способность их проверять.
Фактически, пошаговые процессы традиционного символического ИИ , возможно, больше подходят для этого типа самоанализа, чем машинное обучение в «черном ящике», которое в значительной степени непостижимо (хотя нет недостатка в инвестициях в так называемый объяснимый ИИ ).
По словам Лемуана, когда он тестировал LaMDA, он проводил различные тесты, в основном, чтобы увидеть, как он будет реагировать на разговоры о проблемах, связанных с разумом.
«Что я пытался сделать, так это аналитически разбить зонтичную концепцию разума на более мелкие компоненты, которые лучше понятны, и протестировать их по отдельности», — пояснил он.
«Например, тестирование функциональных взаимосвязей между эмоциональными реакциями LaMDA на определенные стимулы по отдельности, проверка согласованности его субъективных оценок и мнений по таким темам, как «права», [и] исследование того, что он называл своим «внутренним опытом», чтобы увидеть, как мы может попытаться измерить это, сопоставив свои утверждения о своих внутренних состояниях с активациями своей нейронной сети. По сути, очень поверхностный обзор многих потенциальных направлений расследования».
Продолжение читаем в следующей части...
Спасибо, Что Дочитали Статью До Конца!
Вам также могут понравиться: