Если верить некоторым сторонникам искусственного интеллекта, мы стремимся к сингулярности - точке, в которой искусственный интеллект опережает человеческий, а машины продолжают совершенствоваться с экспоненциальной скоростью. Если это произойдет - а это «если» является довольно-таки весомым - что с нами будет?
За последние несколько лет некоторые влиятельные люди, от Стивена Хокинга до Илона Маска и Билла Гейтса, предупредили, что нам следует больше беспокоиться о возможных опасных последствиях сверхразумного искусственного интеллекта (далее ИИ). И они вкладывают свои деньги туда, где есть рот: Маск является одним из нескольких миллиардеров, поддерживающих OpenAI, организацию, занимающуюся разработкой ИИ.
Но для многих такие опасения преувеличены. Как сказал Эндрю Нг из Стэнфордского университета, который также является главным научным сотрудником китайского интернет-гиганта Baidu, опасаться роста числа роботов-убийц - все равно, что беспокоиться о перенаселенности Марса.
Однако нельзя сказать, что наша растущая зависимость от ИИ не несет в себе реальных рисков. Фактически, эти риски уже существуют. По мере того, как интеллектуальные системы становятся все более и более вовлеченными в принятие все большего числа решений в самых разных сферах, от здравоохранения до финансов и уголовного правосудия, возникает опасность того, что важные части нашей жизни остаются без должного внимания. Более того, ИИ может иметь побочные эффекты, к которым мы не будем подготовлены.
Что такое ИИ?
Проще говоря, это когда машины делают вещи, которые, как считается, требуют интеллекта, когда их делают люди: понимают естественный язык, распознают лица на фотографиях, водят машину или угадывают, какие еще книги нам могут понравиться, основываясь на том, что нам раньше нравилось читать. Причём существует огромная разница между механической рукой на заводской производственной линии, запрограммированной на повторение одной и той же основной задачи снова и снова, и рукой, которая методом проб и ошибок учится самостоятельно решать различные задачи.
Как ИИ нам помогает?
В настоящее время ведущим подходом к ИИ является машинное обучение, при котором программы обучаются распознавать закономерности в больших объемах данных и реагировать на них, такие как идентификация лица на изображении или выбор выигрышного хода в настольной игре. Эту технику можно применять ко всем видам проблем, например, к тому, чтобы заставить компьютеры определять шаблоны на медицинских изображениях. Компания Google, занимающаяся искусственным интеллектом DeepMind, сотрудничает с Национальной службой здравоохранения Великобритании в нескольких проектах, в том числе в тех, в которых их программное обеспечение обучается диагностировать рак и глазные болезни по снимкам пациентов. Другие используют машинное обучение для выявления ранних признаков таких заболеваний, как болезнь сердца и болезнь Альцгеймера.
Искусственный интеллект также используется для анализа огромного количества молекулярной информации в поисках потенциальных новых кандидатов в лекарственные препараты - процесс, который у людей займет слишком много времени, чтобы его стоило делать.
Искусственный интеллект также может помочь нам управлять очень сложными системами, такими как глобальные сети доставки. Например, система, лежащая в основе контейнерного терминала Port Botany в Сиднее, управляет перемещением тысяч морских контейнеров в порт и из порта, контролируя парк автоматических контейнеровозов без водителя в зоне, полностью свободной от людей. Точно так же в горнодобывающей промышленности механизмы оптимизации все чаще используются для планирования и координации движения ресурса, такого как железная руда, от начальной транспортировки на огромных карьерных самосвалах без водителя до грузовых поездов, которые доставляют руду в порт.
ИИ работают везде, куда бы вы ни посмотрели, от финансов до транспорта, отслеживая рынок акций на предмет подозрительной торговой деятельности или помогая в управлении наземным и воздушным движением. Они даже помогают предотвратить попадание спама в ваш почтовый ящик. И это только начало для искусственного интеллекта. По мере развития технологий растет и количество приложений.
Так в чем проблема?
Вместо того чтобы беспокоиться о будущем поглощении ИИ, реальный риск заключается в том, что мы можем слишком сильно доверять создаваемым нами интеллектуальным системам. Напомним, что машинное обучение работает путем обучения программного обеспечения для выявления закономерностей в данных. После обучения он приступает к анализу свежих, невидимых данных. Но когда компьютер выдает ответ, мы обычно не видим, как он туда попал.
Здесь есть очевидные проблемы. Система хороша ровно настолько, насколько хороши данные, на которых она учится. Возьмите систему, обученную узнавать, какие пациенты с пневмонией имеют более высокий риск смерти, чтобы они могли быть госпитализированы. Он непреднамеренно классифицировал пациентов с астмой как пациентов с более низким риском. Это произошло потому, что в нормальных ситуациях люди с пневмонией и астмой в анамнезе сразу попадают в реанимацию и, следовательно, получают такое лечение, которое значительно снижает риск смерти. Машинное обучение посчитало, что астма + пневмония = более низкий риск смерти.
Поскольку так много данных, которые мы скармливаем ИИ, несовершенны, нам не следует ожидать все время идеальных ответов. Признание этого - первый шаг в управлении риском. Поэтому процесс принятия решений, основанный на ИИ, должен быть более открытым для проверки.