Найти в Дзене
Simplytech

Стоит ли нам бояться ИИ?

Со временем, все больше людей задаются вопросами об ИИ. Что же будет с нами, когда интеллект машины станет в разы мощнее и быстрее человеческого мозга? Илон Маск, исполнительный директор Tesla: Нам следует очень аккуратно обращаться с искусственным интеллектом. Если бы меня спросили, что представляет наибольшую угрозу нашему существованию, я бы ответил, что это именно он… Все большее число ученых считает, что следует учредить систему контроля, может быть, на национальном и международном уровнях, просто чтобы убедиться, что мы не занимаемся чем-то очень неразумным. Разрабатывая искусственный интеллект, мы словно призываем демона. Мы оказываемся в такой же ситуации, как и герой типичных историй, вооружившийся пентаграммой и святой водой и уверенный, что да, конечно, он может контролировать демона. Ага, разбежался. Реальность выглядит намного более банально. В марте этого года Microsoft выпустил Tay — чат-бот для Твиттера, созданный на базе искусственного интеллекта. Им пришлось удалить е

Со временем, все больше людей задаются вопросами об ИИ. Что же будет с нами, когда интеллект машины станет в разы мощнее и быстрее человеческого мозга?

Илон Маск, исполнительный директор Tesla:

Нам следует очень аккуратно обращаться с искусственным интеллектом. Если бы меня спросили, что представляет наибольшую угрозу нашему существованию, я бы ответил, что это именно он… Все большее число ученых считает, что следует учредить систему контроля, может быть, на национальном и международном уровнях, просто чтобы убедиться, что мы не занимаемся чем-то очень неразумным. Разрабатывая искусственный интеллект, мы словно призываем демона. Мы оказываемся в такой же ситуации, как и герой типичных историй, вооружившийся пентаграммой и святой водой и уверенный, что да, конечно, он может контролировать демона. Ага, разбежался.

Реальность выглядит намного более банально. В марте этого года Microsoft выпустил Tay — чат-бот для Твиттера, созданный на базе искусственного интеллекта. Им пришлось удалить его уже спустя 16 часов. Предполагалось, что общение с людьми будет способствовать росту его интеллекта. Вместо этого он быстро стал про-фашистски настроенным, отрицающим Холокост, поощряющим инцест и обвиняющим президента Буша в теракте 11-го сентября болтуном. Почему? Потому что он работал по тому же принципу, что кухонное полотенце, впитывающее и меняющее свою форму под давлением мерзких сообщений, которые ему посылались. Microsoft пришлось принести извинения.

Но страх людей перед неизвестными им технологиями заставляет бояться. Люди справедливо обеспокоены влиянием идиотских цифровых технологий на их жизни, в особенности в отношении рынка труда и цифровых войн, а пресса ежедневно вещает о новых гаджетах и небывалых компьютерных катастрофах. И у вас на руках будет готовый отвлекающий маневр: цифровой опиум для народа.

Там, где в дело вступают большие деньги, людей становится легко запутать. К примеру, Google скупает компании, занимающиеся разработкой искусственного интеллекта, такими темпами, будто завтрашний день никогда не настанет (предупреждение: я член Экспертного совета Google по «праву на забвение»), так что, получается, Google должен знать о реальных шансах на создание мыслящего компьютера что-то, недоступное нам, людям, не принадлежащим к «внутреннему кругу»? Эрик Шмидт, исполнительный председатель Google, дал почву этим слухам, выступая в институте Аспена в 2013 году: «Многие люди, занимающиеся разработкой искусственного интеллекта, верят, что мы близки к [созданию компьютера, который сможет пройти тест Тьюринга] в ближайшие 5 лет». Тест Тьюринга является способом проверить, продвигается ли ИИ в этом направлении. Вы задаете вопросы двум субъектам в разных комнатах; один из них — человек, другой — компьютер. Если вы не можете отличить одного от другого, анализируя полученные ответы, тогда компьютер успешно проходит этот тест.

-2

Такая проверка не продумана. Представим на минутку экзамен по вождению: если Алиса его не сдаст, то она не считается осторожным водителем; но даже если она его сдаст, она по-прежнему может быть неосторожным водителем. Тест Тьюринга дает необходимое, но недостаточное условие для такого вида интеллекта. Это действительно низкая планка. И в то же самое время, ни один ИИ еще не преодолел ее. Что более важно, все программы продолжают терпеть поражение, используя трюки и уловки, разработанные в 1960-х годах. Истинный ИИ не то чтобы невозможен с логической точки зрения, но он совершенно неправдоподобен. Мы не имеем ни малейшего понятия о том, как мы можем начать разрабатывать его, к тому же вообще не представляем, как работают наши собственные мозг и разум. Это означает, что нам не следует заморачиваться по поводу возможного появления сверхразума. Что действительно важно — тот факт, что нарастающее присутствие постоянно развивающихся технологий оказывает огромное влияние на то, как мы воспринимаем самих себя, мир, наши взаимодействия с ним. Дело не в том, что у наших машин есть сознание, или ум, или что они могут делать то, что нам не под силу. Все это неправда. Существует множество хорошо известных результатов, демонстрирующих вычислительные ограничения, так называемые неразрешимые задачи, для которых — и это можно доказать — невозможно создать алгоритм, во всех случаях ведущий к правильному ответу «да/нет».

Автор: Лучиано Флориди — профессор философии и информационной этики в Оксфорде, а также почетный научный сотрудник в центре изучения этики Uehiro. Его последняя книга — «Четвертая революция: как сфера информационных технологий меняет реальность» (2014).

Редактировал: Резинин Артём