Найти тему
Анатомия заблуждений

Скоро война с искусственным интеллектом?

Оглавление

Законы робототехники давно внедрены. Но почему всех беспокоит опасность искусственного интеллекта? В чём здесь ошибка?

Если бы да кабы

Искусственный интеллект (ИИ) – это общее название компьютерных программ, самостоятельно выполняющих более сложные функции, которые ранее требовали полного участия человека. И последние достижения в этой сфере приводят к мысли, что существует некая опасность искусственного интеллекта.

Давайте разберёмся, реальна ли эта опасность или она преувеличена. ИИ становится обыденностью нашего времени благодаря развитию нейросетей, о которых читайте в статье «Нейросеть – это искусственный интеллект».

Именно нейросети произвели фурор в обществе и обратили внимание человечества на их эффективность. А при ошеломляющей эффективности закономерно возникает вопрос, насколько велика опасность искусственного интеллекта.

Вернёмся к определению ИИ в начале статьи. В нём я намеренно указал, что ИИ выполняет БОЛЕЕ сложные функции, чем обычно. Это важный момент, помогающий понять, с чем мы имеем дело. Представьте, как эволюционировали орудия убийств.

Сначала были камни и дубинки, требующие хорошей мускульной силы человека. Потом появились ножи, копья, мечи, луки, арбалеты и т.д. Сегодня огнестрельное оружие также эволюционирует, и на смену обычному ружью пришёл пулемет. И если последний поставить на какое-нибудь шасси и соединить с ИИ, то получится беспилотник.

Вы боитесь беспилотника? Думаю, что нет. Но если вспомните научно-фантастический фильм «Крикуны», то начнёте боятся. 😊))) Все наши страхи имеют в своей основе вот такой простейший механизм: мы додумываем что-то, преувеличиваем какие-либо возможности чего-то. А потом ужасаемся своим представлениям.

Чтобы рационально рассмотреть опасность искусственного интеллекта, нужно осознать этот простейший механизм. Который можно обозначить, как «если бы да кабы». В эволюции орудий убийств всё шло от простого к сложному и более эффективному.

И обладатели простого камня вполне могли посчитать ружьё какой-то волшебной палкой. Способной на расстоянии убивать кого угодно одним движением мизинца его обладателя. У человека с камнем также срабатывала бы схема «если бы да кабы».

И он бы представлял, что будет, если людей с ружьём будет много. И если они захотят убить всех. В мозгах человека с камнем начинали бы крутиться страшные сцены конца света, апокалипсиса. Ведь противопоставить ружью ничего нельзя.

Ружьё в данном примере является инструментом, способным выполнять более сложные функции: убивать быстро, на расстоянии, без мускульной силы и т.д. Беспилотник с пулемётом также выполняет более сложные функции: быстро и безопасно для владельца беспилотника, без нахождения владельца на поле боя.

А теперь представьте армию беспилотников с пулемётом. Страшно? Думаю, что нет. Потому что вы знаете, что они имеют массу ограничений. По лестницам за вами бегать они не умеют, у них ограниченный запас хода, то есть зависят от топлива, энергии.

Могут застрять на неровной поверхности, управляются человеком на определённом расстоянии, и этот канал управления можно взломать, заглушить. А теперь сопоставьте рассмотренную сейчас опасность беспилотников с пулемётом и опасность искусственного интеллекта.

Опасность искусственного интеллекта не в нём

ИИ в настоящее время просто не совсем понятен обычному человеку. Который имеет весьма смутное представление, что такое ИИ. А с ним он больше сталкивался в фантастических фильмах, где это «если бы да кабы» уже реализовано. 😊)))

Вот если бы беспилотник с пулемётом мог бы не только ездить, но и летать, плавать, скакать по скалам, передвигаться под землёй, тогда было бы страшно. А если ему ещё вставить вечный двигатель, то это будет ужас без конца. 😊)))

Другими словами, опасность искусственного интеллекта сегодня немного преувеличивается. Потому что его путают с разумом, сознанием, жизнью. Вот если бы ружьё ожило, что было бы? Ужас без конца.

Но у ружья нет сознания и соответственно своих желаний и намерений. Тем более, кого-то убивать. Они могут быть у владельца ружья. Также и с ИИ. Это не разум, а инструмент для выполнения БОЛЕЕЕ сложных функций, чем обычно.

Возьмём, к примеру, ИИ, играющий в шахматы. Он обыгрывает гроссмейстеров, чемпионов мира. Больше он ничего не умеет. Потому что шахматы предсказуемы, они имеют строгие правила, регламентирующие, как ходить 32 фигурам на 64 клетках.

Неудивительно, что шахматы стали первой сферой деятельности, где так называемый ИИ добился впечатляющих успехов. Но это обычная машина. Можно сказать, тупая машина, запрограммированная на конкретную деятельность. Выдерните вилку из розетки, и всё – нет искусственного интеллекта.

А в жизни нет правил, как в шахматах. Поэтому математическое моделирование любых процессов, связанных с живыми системами, является профанацией. Невозможно создать математическую модель человека, математически описать его поведение. О чём читайте в статье «Какая наука самая сложная?».

Таким образом, создание на основе компьютерных технологий искусственного разума невозможно. Искусственный интеллект создать можно, а искусственное сознание, разум, жизнь – нет. Поэтому опасность искусственного интеллекта преувеличена.

И это преувеличение связано с наделением ИИ каких-то свойств разума. Как в фантастических фильмах про войну человечества с ИИ, в которых уже состоялось это «если бы да кабы». Но, как я указал выше, ИИ – это просто тупая машина. Полностью зависящая от человека.

Это машинные алгоритмы, учитывающие существующие представления человечества о каком-либо вопросе. Ни о каком мышлении не может быть и речи. Именно поэтому сегодня даже с развитием нейронных сетей нет в науке никаких открытий, которые бы сделали нейронные сети.

Они могут лишь перебирать, переставлять и сопоставлять то, что открыл человек. По заданию самого оператора. И всё новое, революционное может открыть, как и раньше, только человек. А не какая-то машина. ИИ может только помочь человеку в этом открытии. Например, в предоставлении и классификации информации.

Таким образом, вся опасность искусственного интеллекта связана не с ИИ, а с самим человеком. Потому что ИИ – это просто мощный и эффективный инструмент в руках человека. Опасен сам человек, как, например, психопат с кухонным ножом в руках. Но не кухонный нож.

При этом кухонный нож физически делают таким, чтобы минимизировать возможность превращения его в орудие массовых убийств: изготавливают из менее прочной стали, без кровостока и т.д. Аналогично можно внедрить меры безопасности и в компьютерные технологии.

Законы робототехники уже давно работают

Ещё в 1942 году писатель-фантаст Айзек Азимов в своём рассказе «Хоровод» впервые представил миру 3 закона робототехники.

Если выразить просто и коротко, вот они в порядке убывания приоритетности:

1. Робот не может нанести вред человеку

2. Робот подчиняется приказам человека

3. Робот заботится о собственной безопасности

Дело в том, что в этих законах робототехники всё прекрасно, кроме 2 закона. Это фантастика, где уже реализовано «если бы да кабы». В данном случае, предполагается, что робот обладает сознанием, раз способен не выполнять приказы человека. И ему в виде отдельного закона строго предписывается подчиняться человеку.

Но сознание, разум означают жизнь и права этой жизни на свободу. То есть эксплуатация роботов в таких условиях стала бы аналогичной отношениям рабов и рабовладельцев. Со всеми вытекающими этическими проблемами и последствиями в виде опасностей бунтов.

Но в жизни, как я указал выше, мы не можем с помощью компьютерных технологий создать математическую модель человека, сознание. Но можем создать мощный неживой инструмент. Как, например, куклу, похожую на человека, двигающуюся, как человек, разговаривающую на понятном человеческом языке и т.д.

И в настоящее время, чтобы снизить опасность искусственного интеллекта, 1 и 3 законы робототехники давно применяются. 2 закон выполняется априори. Потому что иначе быть не может, так как человек управляет машиной, а не наоборот.

3 закон стал применяться сразу с созданием сложных систем. Любую сложную систему человек использует с механизмами, защищающими её от разрушения. Например, в двигателе внутреннего сгорания это системы охлаждения, смазки и т.д.

В компьютерах это антивирусы и любые другие системы защиты. То есть существующие объекты ИИ уже давно работают в условиях реализованного 3 закона робототехники. 1 закон робототехники также стал применяться с созданием сложных систем. Читайте об этом в статье «Защита от дурака».

Если рассматривать опасность искусственного интеллекта, то здесь внедряются защитные протокола, блокирующие неправомерные контент или ещё какие-либо опасные функции. Которые могут принести вред человеку. Вот так сегодня своеобразно реализуется 1 закон робототехники.

То есть законы Айзека Азимова давно стали реальностью. И весь вопрос стоит в том, чтобы выработать международные стандарты блокировки опасных функций. У нас же запрещено самостоятельно изготавливать огнестрельное оружие. Только под контролем государства. Также и здесь.

Что вредно и опасно, кому и когда вредно и опасно, как это блокировать – всё это нужно согласовать на международном уровне. Чтобы минимизировать опасность искусственного интеллекта как очень эффективного инструмента. Человечество делает пока первые шаги в этом направлении. Но уже сейчас видны результаты.

Если вам понравилась моя статья — поставьте лайк, прокомментируйте статью, а с помощью кнопки "Поделиться" уведомите своих друзей о полученном впечатлении.

Если вы не хотите пропустить другие статьи по разным вопросам нашей жизни с неожиданной точки зрения — подписывайтесь на мой канал «Анатомия заблуждений» здесь на Дзене и на Телеграм-канал "Анатомия мышления", дополняющий основной сайт-блог "Анатомия мышления" (ссылка на сайт в описании данного канала).