________________________________________
В 1958 году психолог и исследователь компьютерных наук Фрэнк Розенблатт провел публичную демонстрацию своего персептрона, далекого предка современных алгоритмов машинного обучения.
Персептрон был разработан на 9-тонном ibm 704, универсальном компьютере с меньшей мощностью, чем у современного телевизионного пульта.
Его особенность заключалась в способности научиться чему-то, не прибегая к прямому программированию.
Военно-морской флот США, финансировавший эту работу, надеялся, что персептрон будет «зародышем электронного компьютера, который...сможет ходить, говорить, видеть, писать и осознавать свое собственное существование». Машина могла бы «распознавать людей и называть их имена» и «мгновенно переводить с одного языка на другой».
Верный способ потерпеть неудачу — это завысить ожидания.
В 1969 году книга Марвина Мински и Сеймура Паперта, двух исследователей ИИ, рассказала, почему персептрон был конституционно неспособен выполнять элементарные задачи. Исследования нейронных сетей затянулись на десятилетие.
В 1973 году британское правительство отказалось почти от всех исследований ИИ, сославшись на неспособность этой области достичь своих «грандиозных целей».
После книги Мински и Паперта фокус исследований ИИ переместился на «символические» подходы, которые фокусировались на формальной логике.
Сокращение финансирования прикрыло многие исследовательские проекты.
Нынешний всплеск энтузиазма пока является самым большим в истории ИИ. Поэтому некоторые исследователи обеспокоены тем, что по мере того, как границы современного ИИ станут очевидными, наступит большой спад.
В 2018 году Филип Пекневски, исследователь искусственного интеллекта в Accel Robotics, сравнил «шум» вокруг обучения ИИ с фондовым рынком незадолго до того, как лопнет пузырь.
Невозможно точно сказать, когда произойдет катастрофа, писал доктор Пекневски, но «почти наверняка это произойдет в какой-то момент».
Возможно. Но разочарование, если оно возникнет, может возникнуть не только из-за растущего осознания технических ограничений современного ИИ, но и из-за того, как они взаимодействуют с его сильными сторонами.
Хотя в этом докладе основное внимание уделяется областям, в которых ИИ не дотягивает, веские причины для волнения всё же есть. Способность находить закономерности в потоках данных, иногда с нечеловеческой точностью, имеет тысячи применений.
Поэтому правительства и бизнес спешат использовать ИИ таким образом, чтобы это помогло им влиять на обычных людей.
В авторитарных странах у людей не будет выбора относительно того, что сделает с ними ИИ. Китай уже предлагает схему усиленного ИИ-контроля. В демократических странах простые люди будут иметь чуть больше свободы.
5 февраля голландский суд постановил, что syri, система искусственного интеллекта, предназначенная для обнаружения мошенничества с налогами и социальными выплатами, была незаконной.
Система была разработана, чтобы собирать потоки данных из различных правительственных ведомств и обнаруживать в них странные паттерны, которые могли бы нанести вред. Суд постановил, что голландское правительство не сумело сбалансировать свои обязательства по борьбе с мошенничеством с обязательствами по защите частной жизни своих граждан.
Британия и Австралия используют аналогичные системы. Исследователи, надеющиеся использовать искусственный интеллект в исследованиях covid-19, должны задуматься над результатами опроса, который показал, что около половины американцев откажутся устанавливать приложение для отслеживания местоположения и отслеживания контактов на свои телефоны.
По мере того, как люди знакомятся со своеобразным сочетанием силы и хрупкости ИИ, они поймут, что не стоит доверять ему важные решения.
Исследование, проведенное в 2019 году школой права Нью-Йоркского университета и Институтом ai Now Institute, изучало прогностические алгоритмы полицейского управления. Они показывают, где и в каком количестве лучше всего разместить полицейских, основываясь на тенденциях из исторических данных о преступности.
Исследователи обнаружили, что 13 штатов, включая Чикаго и Новый Орлеан, изучают эту технологию. Обучение алгоритма на основе расово предвзятых данных рискует усилить те же самые предубеждения, на этот раз подкрепленные силой ИИ.
Даже в Китае неспокойно: один недавний опрос показал, что 74% респондентов недовольны растущим использованием распознавания лиц.
Исследователи ИИ начинают бороться с такого рода проблемами. Два года назад Google опубликовала сборник «принципов искусственного интеллекта», заявив, что системы должны быть «социально полезными», «избегать создания или усиления несправедливых предубеждений» и «быть построены и протестированы на предмет безопасности».
Microsoft и Facebook дали аналогичные обещания.
«Так много разработок в области машинного обучения было связано с рекламой и социальными сетями», - говорит один из руководителей Facebook. - Итак, основное внимание было...сосредоточено на точности, а не на этике или последствиях».
Действительно, социальные медиа — это пример анти-ИИ-реакции, которая уже идет полным ходом. Встревоженные теориями заговора и дезинформацией, алгоритмами, которые ставят «вовлеченность» выше всего остального, страны принимают законы, чтобы заставить корпорации действовать в рамках закона и не приобретать над нами всё больше власти.
Если и другая сторона медали. ИИ создает рабочие места, а не уничтожает их: Facebook нанял более 15 000 модераторов контента для контроля своих алгоритмов, что вдвое больше, чем в 2017 году.
Брэд Смит, президент Microsoft, сказал, что вместо того, чтобы спрашивать, что ИИ может сделать, люди должны думать о том, что он должен делать.
Иными словами, технологические ограничения наивного, подверженного ошибкам ИИ приведут к тому, что люди наложат на него дополнительные политические и социальные ограничения.
Умные алгоритмы должны будут вписаться в мир, полный людей, и, по крайней мере теоретически, управляться ими. Искусственный интеллект одновременно силен и ограничен.
По мере того, как это осознание этих ограничений будет распространяться, некоторые мечты о разгаре лета исчезнут в осеннем холоде. ■