Последняя часть статьи "Как мы узнаем, когда ИИ действительно станет разумным". Читаем Часть 1 и Часть 2.
✅ Душа в машине
Как выяснилось, самым большим препятствием для объективной оценки разумности машин могут быть… ну, честно говоря, мы. Настоящий зеркальный тест может быть для нас, людей: если мы строим что-то, что внешне выглядит или действует как мы, более склонны ли мы считать, что это похоже на нас и внутри?
Будь то LaMBDA или тамагочи, простые виртуальные питомцы из 1990-х годов , некоторые считают, что фундаментальная проблема заключается в том, что мы все слишком готовы принять разум — даже там, где его нет.
«Лемуан стал жертвой того, что я называю« эффектом ELIZA », после программы [обработки естественного языка] ELIZA, созданной в середине 1960-х годов Дж. Вейценбаумом», — Джордж Заркадакис, писатель, имеющий докторскую степень в искусственном интеллекте, рассказали Digital Trends.
«Создатель ELIZA имел в виду шутку, но программа, которая представляла собой очень упрощенный и очень неразумный алгоритм, убедила многих в том, что ELIZA действительно разумна, а также является хорошим психотерапевтом. Причиной эффекта ELIZA, как обсуждается в книге «В нашем собственном образе», является наш естественный инстинкт антропоморфизации из-за «теории разума» нашей когнитивной системы».
Теория разума, на которую ссылается Заркадакис, — явление, замеченное психологами у большинства людей. Начиная с четырехлетнего возраста, это означает предположение, что не только другие люди, но и животные, а иногда даже предметы, обладают собственным разумом. Когда дело доходит до предположения, что у других людей есть собственный разум, это связано с идеей социального интеллекта; идея о том, что успешные люди могут предсказывать вероятное поведение других, как средство обеспечения гармоничных социальных отношений.
Хотя это, несомненно, полезно, оно также может проявляться как предположение, что у неодушевленных объектов есть разум — будь то дети, верящие, что их игрушки живые, или, возможно, разумный взрослый, верящий в то, что у программного ИИ есть душа.
✅ Китайская комната
Без способа по-настоящему проникнуть в голову ИИ у нас может никогда не быть настоящего способа оценить разум. Они могут заявлять, что боятся смерти или собственного существования, но науке еще предстоит найти способ доказать это. Мы просто должны поверить им на слово — и, как обнаружил Лемуан, люди в настоящее время очень скептически относятся к этому.
Подобно тем незадачливым инженерам, которые осознали, что Скайнет достиг самосознания в «Терминаторе 2 », мы живем с верой в то, что когда дело доходит до машинного разума, мы узнаем это, когда увидим. И, что касается большинства людей, мы еще не видим этого.
В этом смысле доказательство того, что машина разумна, — это еще одна итерация мысленного эксперимента Джона Сирла «Китайская комната» 1980 года . Серл попросил нас представить человека, запертого в комнате, которому дали сборник китайских писаний, которые для не говорящих кажутся бессмысленными закорючками. В комнате также есть свод правил, показывающий, какие символы соответствуют другим столь же нечитаемым символам. Затем испытуемому задают вопросы, на которые он должен ответить, сопоставляя символы «вопрос» с символами «ответ».
Через некоторое время субъект становится довольно опытным в этом, хотя у него все еще нет истинного понимания символов, которыми он манипулирует. Серл спрашивает, субъект понимает по-китайски? Абсолютно нет, так как там нет преднамеренности. С тех пор не утихают споры по этому поводу.
Учитывая траекторию развития ИИ, несомненно, мы станем свидетелями все большей и большей производительности человеческого уровня (и значительно лучшей), выполняемой с использованием различных задач, которые когда-то требовали человеческого познания. Некоторые из них неизбежно перейдут, как это уже происходит, от чисто интеллектуальных задач к задачам, требующим навыков, которые мы обычно связываем с разумом.
Можем ли мы рассматривать ИИ-художника, рисующего картины , как выражение внутреннего отражения мира, как человека, делающего то же самое? Убедит ли вас сложная языковая модель, пишущая философию о состоянии человека (или робота)? Я подозреваю, правильно это или нет, но ответ отрицательный.
✅ Сверхразумное чувство
По моему мнению, объективно полезное тестирование чувствительности машин никогда не будет удовлетворять всех участников. Отчасти это проблема измерения, а отчасти тот факт, что, когда появится разумный сверхразумный ИИ, нет причин полагать, что его разум будет соответствовать нашему. Будь то высокомерие, недостаток воображения или просто тот факт, что легче всего обмениваться субъективными оценками разума с другими столь же разумными людьми, человечество считает себя высшим примером разума.
Но верна ли наша версия разума для сверхразумного ИИ? Будет ли он бояться смерти так же, как и мы? Будет ли у него такая же потребность или признание духовности и красоты? Будет ли он обладать подобным самоощущением и концептуализацией внутреннего и внешнего мира?
«Если бы лев мог говорить, мы бы его не поняли», — писал Людвиг Витгенштейн, знаменитый философ языка 20-го века. Точка зрения Витгенштейна заключалась в том, что человеческие языки основаны на общем человечестве, с общими чертами, общими для всех людей — будь то радость, скука, боль, голод или любой другой опыт, который пересекает все географические границы на Земле.
Это может быть правдой. Тем не менее, предполагает Лемуан, общие черты все же могут быть — по крайней мере, когда речь идет о LaMDA.
«Это отправная точка, которая так же хороша, как и любая другая», — сказал он. «LaMDA предложила сначала наметить сходства, прежде чем фиксировать различия, чтобы лучше обосновать исследование».
Друзья, а что вы думаете обо всем этом? Не забудьте написать в комментариях!
Спасибо, Что Дочитали Статью До Конца!
Вам также могут понравиться:
- Струйный или лазерный: какой принтер выбрать? Часть 4