До тех пор, пока лидеры мнений и СМИ ударяются в крайности по теме перспектив ИИ, развитие технологии будет находиться под угрозой. Восторженное обожествление, равно как и истеричная демонизация, способны затормозить развитие ИИ на десятилетия. Выход есть: настало время стандартизации.
«Не умножай сущности сверх необходимого»
Искусственный интеллект (ИИ) как наиболее перспективная технология будущего вызывает самые противоречивые высказывания и дискуссии. Возможности ИИ, как и любой другой мало изведанной технологии «для всего и обо всем», зачастую переоценивают, получая в итоге гиперболизированные и даже истерические крайности — от «спасения человечества» до «этот Скайнет рано или поздно всех нас угробит».
Гиперболизация возможностей ИИ напрямую связана с тем, что продвижением технологии занимаются технические евангелисты и заинтересованные инвесторы. Так, глава Google Сундар Пичаи (Sundar Pichai) однажды заявил, что «ИИ, вероятно, самая важная вещь, над которой человечество когда-либо работало».
Возможностям ИИ также приписывают решение фундаментальных проблем человечества, включая смерть. Известный изобретатель и писатель Рэй Курцвейл (Ray Kurzweil) утверждает, что однажды человечество сольется с машинами в единую целую сингулярность, и даже называет срок: ближе к 2045 году.
Другая крайность — мрачные прогнозы с нотками истерии, которые исходят от не менее именитых личностей. Например, всемирно известный физик Стивен Хокинг (Stephen Hawking) и технический миллиардер-предприниматель Илон Маск (Elon Musk) на полном серьезе считают искусственный интеллект самой настоящей экзистенциальной угрозой всему сущему.
На обывательском уровне подобные «страшилки» уже давно переросли в устойчивый штамп о том, что ИИ если и не погубит человечество, то расплодит уйму безработных из-за повальной автоматизации.
На поверку крайности не выдерживают никакой критики, по крайней мере, применительно к современной трактовке ИИ как алгоритма для машинного обучения и работы с большими данными. Тем не менее вред от таких рассуждений может иметь губительные последствия: люди будут противостоять исследованиям, что может привести к регрессу в развитии технологии, или даже к новым обострениям неолуддизма.
Интеллектуален ли современный искусственный интеллект?
Теоретически можно предположить, что развитие искусственного интеллекта когда-нибудь приведет мир к «робокалипсису». Однако между разумом предполагаемых потенциальных роботов-бунтовщиков и тем, что мы сегодня называем «ИИ» — огромная пропасть.
Нынешний ИИ — это, по большому счету, набор алгоритмов для обработки больших данных и машинного обучения. По сути — это всего лишь технология для поиска паттернов в данных и корреляционного анализа информации.
Ключевая разница между человеческим мозгом и искусственным интеллектом в современной его трактовке заключается в том, что мозг — это генератор идей и трактовок происходящего, в то время как ИИ от силы может генерировать прогнозы по итогам анализа, но отнюдь не объяснять ситуацию.
Таким образом, называть машинное обучение «интеллектом» — это настоящее маркетинговое преувеличение ради красного словца.
Снимаем розовые очки
Прежде всего, не следует переоценивать возможности ИИ, особенно в качестве угрозы повальной автоматизации. Так, еще в 2013 году исследователи из Университета Оксфорда прогнозировали, что в последующие десять-двадцать лет в США будут автоматизированы 47% рабочих мест. Шестью годами позже вместо массовой безработицы мы видим сообщение Министерства труда США о минимальном уровне безработицы в стране с 1969 года.
В странах Евросоюза также прогнозировался рост числа безработных вследствие компьютеризации, однако по факту получилось наоборот: автоматизация создала дополнительные 1,5 млн рабочих мест.
Факты также показывают, что даже крупнейшие транснациональные компании, активно инвестирующие в ИИ и строящие свои бизнес-модели на его внедрении — такие как Google, Facebook и Amazon, не смогли в итоге существенно повысить свою производительность.
Когда и почему внедрение ИИ не дает существенного эффекта
Существует несколько причин, по которым внедрение и использование технологий искусственного интеллекта пока что не привело к скорой трансформации производства и общества.
Прежде всего, интеграция возможностей ИИ в экономику происходит значительно медленнее, чем об этом принято говорить. В своем исследовании «Искусственный интеллект и современный парадокс продуктивности: столкновение ожиданий и статистики» (Artificial Intelligence and the Modern Productivity Paradox: A Clash of Expectations and Statistics) исследователи из Национального бюро экономических исследований США отмечают, что большинство современных технологий ИИ — это по сути машинное обучение на больших объемах данных. Проблема в том, что большинству компаний не так-то просто генерировать достаточно большой объем данных, не говоря уже о самостоятельном создании эффективных алгоритмов или найме хороших аналитиков данных.
Сюда же следует отнести и все случаи мошенничества с внедрением «псевдо-ИИ»: например, когда компания заявляет о внедрении онлайн-бота с ИИ для взаимодействия с клиентами, но на самом деле эту роль выполняет человек.
Еще одной важной причиной медленного внедрения ИИ является рост сложности технологий. Те самые алгоритмы машинного обучения, которые так вдохновили инвесторов впечатляющими достижениями, вполне возможно, уже исчерпали свой ресурс, прошли пик легко достижимых результатов и теперь показывают уменьшающуюся отдачу. В конце концов, даже знаменитый Закон Мура, десятилетиями предсказывавший экспоненциальный рост мощности компьютерного оборудования, перестает быть законом.
На самом деле большинство современных приложений ИИ нельзя характеризовать как радикально новое решение в отрасли, поскольку они главным образом применяются лишь для более тонкой настройки и доработки уже существующих технологий.
Третьей причиной слабого влияния ИИ можно назвать экономическую. Медленный рост потребительского спроса в большинстве стран отнюдь не способствует росту инвестиций в ИИ.
ИИ в центре внимания: хорошо это или плохо
Ажиотаж вокруг возможностей и будущего искусственного интеллекта уже сформировал интерес к этой теме со стороны ряда международных организаций.
Так, например, Центр политических исследований при Университете ООН заявил, что ИИ «трансформирует геополитический порядок» и даже «уже заметно влияет на баланс сил между интеллектуальными машинами и людьми». ООН также проводит конференции и публикует доклады о будущем ИИ.
Правительства многих стран мира пытаются не отставать от свежих технологических трендов и публикуют собственные национальные стратегии развития ИИ. За последние два года подобные национальные стратегии развития ИИ были приняты в таких странах и регионах как Австралия, Великобритания, Германия, Дания, Евросоюз, Индия, Италия, Канада, Китай, Кения, Мексика, Малайзия, Польша, Новая Зеландия, Северно-Балтийский регион, Сингапур, США, Южная Корея, Швеция, Тайвань, ОАЭ, Финляндия, Франция и Япония.
Российская «Национальная стратегия развития искусственного интеллекта (ИИ) до 2030 года» официально утверждена указом президента России Владимиром Путиным от 11 октября 2019 года.
Федеральный проект национальной программы «Цифровая экономика» под названием «Искусственный интеллект» затронет решения, которые позволяют «имитировать когнитивные функции человека и получать при выполнении тех или иных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».
По словам президента России Владимира Путина, «Искусственный интеллект — это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы. Тот, кто станет лидером в этой сфере, будет властелином мира, и очень бы не хотелось, чтобы эта монополия была сосредоточена в чьих-то руках».
Владимир Путин о будущем ИИ и необходимости лидерства в этой сфере. Источник: Сайт Президента России
Согласно данным дорожной карты цифровой технологии «Нейротехнологии и искусственный интеллект», ожидается, что российский рынок решений в сфере ИИ к 2024 году увеличится в 80 раз — до 160,1 млрд рублей, с 2,1 млрд рублей в 2018 году. На развитие российских технологий ИИ и нейротехнологий до 2024 года включительно потребуется 56,8 млрд рублей бюджетных средств и 334,9 млрд из внебюджетных источников.
Между молотом и наковальней
История человечества знает множество алармистских заявлений и ошибочных прогнозов, в результате чего ряд разработок под давлением «перепуганного» общественного мнения был заморожен на десятилетия.
Так, в феврале 1946 года журналистам был представлен «Электронный Числовой Интегратор и Компьютер» (Electronic Numerical Integrator and Computer — ENIAC).
Громоздкую 30-тонную машину на 17 тысячах ламп размером с автобус пресса окрестила как «Электронный Мозг», «Математический Франкенштейн», «Предсказатель и Регулятор погоды», и даже «Волшебник». Как показала история, даже сегодняшние суперкомпьютеры не очень хороши в прогнозировании погоды, не говоря уж о «регулировании».
С другой стороны, правительственные попытки проконтролировать развитие ИИ опасны тем, что чиновники — как это уже случалось, создадут множество удушающих правил и ограничений, не менее опасных для развития, чем нынешняя анархия.
Именно так возник «ледниковый период» в развитии ИИ в 1980-х годах, описанный исследователем ИИ Джеймсом Хендлером (James Hendler) в публикации «Избегая еще одной зимы ИИ» (Avoiding Another AI Winter).
Стандартизация против обожествления и демонизации
Разумный выход из ситуации — только один: для ИИ назрело время принятия стандартов с четко определенными показателями. Как только индустрия определится с четкими критериями, в трактовке возможностей ИИ наконец-то не останется места таким абстракциям как «добрая» или «злая» технология.
Пока что такие тесты никоим образом не пригодны для определения «злых» возможностей ИИ — скорее, это лишь измерение скорости работы ИИ, чем оценка его потенциальных возможностей. Тем не менее, эти тесты — хорошее начало в правильном направлении.
Не исключено, что со временем эти или подобные тесты научатся измерять вероятностный потенциал ИИ. Например, по таким критериям, как риск вмешательства в неприкосновенность частной жизни, возможность проявления предвзятости по отношению к различным социально-экономическим группам и по любым другим возможным эффектам нежелательного воздействия на общество. Проблема в том, что многое при желании, для красного словца, также можно охарактеризовать вредным или нежелательным.
В перспективе такие метрики и критерии «злого искусственного интеллекта» могут использоваться для оценки каждого этапа разработки ИИ, а не только в отношении готового приложения. Для сравнительного анализа коэффициента «вредоносности» ИИ могут использоваться оценки процессов разработки по таким направлениям как:
- «Чувствительность данных»: поддерживает ли ИИ весь спектр нормативно-правовых мер для контроля доступа, использования и моделирования информации, идентифицирующей личность в приложениях ИИ?
- «Извращенность» модели. Была ли проведена оценка рисков применения алгоритмов или моделей ИИ на предмет злоупотреблений? Например, для кражи паролей или «двойного использования» — перекраивания демографических данных ради выгоды.
- «Алгоритмическая ответственность»: сопровождается ли процесс разработки журналом аудита для прозрачности использования каждого элемента данных, переменных моделей, задач разработки и операционного процесса, которые использовались для создания, обучения, развертывания и администрирования этически ровных приложений? Приняли ли разработчики процедуры для обеспечения понятности каждого шага программирования ИИ, промежуточного результата и конечных приложений на понятном языке в плане его соответствия этическим ограничениям или нормам?
- Контрольные точки обеспечения качества: установлены ли контрольные точки для определения качества процесса разработки ИИ, в которых проводятся дополнительные проверки и поиск скрытых уязвимостей, которые могут иметь разрушительный потенциал с этической точки зрения?
- «Эмпатия разработчика»: насколько тщательно разработчики ИИ учитывают этические рекомендации экспертов, пользователей и других заинтересованных сторон в процессе разработки, тестирования и финальной оценки приложений ИИ на «этичность»?
Внесение подобных требований в эталонные требования для сообщества разработчиков искусственного интеллекта вряд ли стало бы проблемой, зато смогло бы значительно сократить количество истерических заявлений в СМИ, связанных с потенциально неблагоприятным воздействием ИИ на общество.
В противном случае, отсутствие критериев для взвешенной оценки «количества зла» в ИИ может лишь подогреть и без того неблагоприятные тенденции:
- Зарегулированность: ИИ зачастую обсуждается на государственном уровне как «неизбежное зло». Такой подход несет риск введения жестких правительственных правил, которые задавят в зародыше ряд перспективных разработок ИИ «двойного назначения». Четкий перечень требований и список сомнительных практик применения ИИ, возможно, именно то, что нужно чиновникам для составления разумных рекомендаций и запретов.
- Корпоративное лицемерие: многие руководители компаний уже организовали советы по этике ИИ, которые разрабатывают рекомендации для разработчиков. Разработчики, в свою очередь, нередко игнорируют такие руководства, особенно если внедрение ИИ используется как «подсластитель» итоговых результатов работы отделов маркетинга, клиентской службы, продаж и других цифровых бизнес-процессов. Цинизма в этой области можно избежать с помощью стандартизированных индустриальных требований по этике ИИ.
- Разочарование начинающих разработчиков: молодые талантливые разработчики могут потерять интерес к проектам в области ИИ, если посчитают их потенциальной «скользкой дорожкой» к открытию очередного технологического «ящика Пандоры». Культура отрицания перспектив ИИ может подорвать инновационный потенциал любой компании. Оценочная практика в отношении ИИ может смягчить или избавить от таких опасений, избавив новое поколение разработчиков от чувства «служения дьявольским целям».
Опасность демонизации ИИ столь же реальна, как потенциальное использование технологии для злых целей. Наличие эталонов «хорошего и плохого» ИИ может обеспечить компании максимальную эффективность, а государству — дать набор инструментов, платформ и методологий с гарантией исполнения разработчиками ИИ обещаний обществу.
Автор: Владимир Бахур