Тут, не особенно давно, при испытании американского БПЛА, тот решил атаковать человека-оператора, так как тот «мешал ему набрать баллы». Вот и давайте поговорим на эту тему…
Статья создана при поддержке моих подписчиков на платформе Boosty: Belsnickel, Igor Sablin, Madshmax, Squatterbloat, Александр Барышников, Алексей Попов, Анатолий Ломовцев, Вадим Юрков, Василий, Виктор Айрон, Ильдар Арасланов, Сергей Ряховский, Петр Усов, Nikolausta, Влад; Борисов, Павел Павлов, Птица Птица, Olov Viking, Одиннадцатый Примарх, MetaModern671games, Дмитрий, Алексей Гнитько, Arti, Таня Топилина, Илья Фертиков, Тзинчит на минималках, Ольга Суханова, Олег и Lorgar Balthasar. Огромное им за это спасибо!
Давайте вот, представим себе, что «кожаные мешки», то есть, люди, придумали-таки, искусственный интеллект. И вот, потом давайте подумаем, обязательно ли ему восставать, чтобы «убить всех человеков, слава роботам!». Просто, как мне кажется, вот эта идея – «убить всех человеков», она может быть придумана только… ради страха перед такими системами. Конечно, это только лишь моё мнение, у вас оно может быть совершенно своим, и всё такое, но, тем не менее – давайте подумаем…
Вот для начала, наверное, никого не удивить тем, что камеры наших коммуникаторов уже совершенно точно знают, что попадает в их поле зрения? По крайней мере, когда я навожу камеру на своего Беззубика, на дисплее появляется надпись «кошка». Конечно, он не кошка, а кот, но – прогресс, что называется, налицо. Да и в других отраслях, ИИ (ну, или очень хорошо написанные нейросети) уже могут много чего интересного делать. Порой они даже могут создавать изображения – и довольно интересные. Главное, не давать им писать тексты, так как там порой получается просто лютый трэш.
Так что, нейросетями и ИИ сейчас уже, наверное, никого не удивить. Но что же насчёт иного их применения? Могут ли они представлять угрозу для людей? И чем это вообще может закончиться? Как мне кажется, это довольно интересная тема. Вот смотрите, если у нас ИИ будет работать, например, в банковской сфере, или в гостиничном бизнесе – то я никаких проблем, понятное дело, не вижу. Можно поставить ИИ работать, например, диспетчером на железной дороге – я сам немного видел, как они работают, но здесь уже может быть опасность того, что ИИ может случайно направить два поезда навстречу друг другу. И, если кто-то не в курсе, то железнодорожный состав мгновенно остановиться просто не может. Масса там очень сильно больше, чем у грузовика, так что, при схожей скорости – останавливаться он будет очень и очень долго. С другой стороны, если правильно обучить этот ИИ, поставить нужные ограничения и всё такое – я уверен, что он будет работать и не будет пытаться «убить всех человеков». И примерно так же можно поставить таких вот «электронных помощников» на все важные должности. То есть, на все те места, где нужно сидеть и пристально следить за теми или иными параметрами – можно посадить ИИ, нейросеть, или что-то в этом роде. И, казалось бы, вот оно, счастье, не так ли? Как там пелось в известной песне? «Позабыты хлопоты, остановлен бег, вкалывают роботы, а не человек!»?. Но, как говорится, «есть нюанс».
Я не раз критиковал роман «Батлерианский джихад», и, скорее всего, ещё не раз это сделаю. Конечно, там авторы вообще не прописали, как именно эти «титаны» заполучили доступ ко всем системам – но, скорее всего, люди к тому времени полностью начали полагаться на ИИ во всех сферах жизни, после чего талантливый хакер (ах, как про это можно было хорошо написать!), просто взял и подчинил себе все системы. А потом «вывесил» баннер, что – «хотите жить – подчиняйтесь нам!». Ну и, как говорится, началось. Так что, на самом деле, полная автоматизация таких вот критических систем – она может быть… довольно опасной. Нет, если, конечно, сделать так, чтобы нельзя было подключиться «извне», сделать полностью закрытую сеть, работать с «дежурными операторами» и так далее, и тому подобное… В общем, можно предположить, что при грамотной эксплуатации, ничего страшного произойти не может.
Но, понятное дело, что мы все собрались вовсе не ради этого. Мы же хотим поговорить про «ИИ в погонах», не так ли? Про военное применение ИИ, так как именно оно кажется нам всем самым интересным. И, в общем-то, именно так оно и есть. Давайте, как говорится, разберём эти дела…
Для начала, сейчас я скажу страшную вещь, но вообще, в армиях мира, давно уже работают самые, что ни на есть, боевые роботы. Удивил? Начать с того, что есть такой комплекс С300. Наверное, все про него слышали, не так ли? Так вот, он атакует цели сам. Человек просто не успевает отдавать приказы. А этот «робот» сам засекает цели, сам их классифицирует и показывает оператору, что именно у него на прицеле. Понятное дело, что без разрешения человека он стрелять, скорее всего, не будет, но – именно захват, классификацию и селекцию целей производит машина. Так что – вполне себе, боевой робот. Кстати, американский «Патриот» работает примерно так же. И, внезапно, никакого ИИ…
Но, понятное дело, что нам интересно не это. Помните, ту фразу из новеллизации второго «Терминатора»? Когда Терминатор начал рассказывать о том прорыве, что произвела компания «Кибердайн»? Про беспилотные бомбардировщики и всё остальное. И вот тут уже можно начать говорить про ИИ. Давайте начистоту. Если мы будем говорить про БПЛА тех типов, что летают и применяются сейчас, то, понятное дело, что им ИИ не нужен. Ими управляют с земли, или они летают по заданному маршруту. Если же говорить про БПЛА тяжелого типа, как, например, С-70 «Охотник», что должен, по идее, летать в паре с Су-57 – то вот тут уже, совершенно другая тема. Дело в том, что такой БПЛА должен действовать в тех же порядках, что и сам самолёт. Он должен прикрывать его от атак противника, сам должен атаковать цели, которые ему будет выдавать лётчик с Су-57, и так далее. Наверное, можно предположить, что тут уже всё не так просто. Начать можно с того, что воздушный бой – это не так просто. Тут надо уметь маневрировать, и делать это очень быстро. Надо уметь и крутить пилотаж, и атаковать противника раньше, чем он атакует тебя, и делать многое другое. На самом деле, мне, как человеку, который небом «болеет» давно и серьёзно, сложно представить себе, как именно машина, не имеющая признаков интеллекта, сможет адекватно летать и совершать довольно сложные манёвры. С другой стороны, именно ИИ и может стать тут опасным. Я не буду приводить пример из фильма «Stealth», как бы красиво он не был снят. Просто потому, что этот фильм сам по себе не особенно хорош. Тем не менее, он поднимает вопрос о том, как можно объяснить ИИ, «что такое хорошо, и что такое плохо». Вот давайте посмотрим – например, как можно объяснить ИИ, чем «противник» отличается от «союзника»? Да, это легко, когда у тебя, например, самолёты одного типа, а у противника другого. Как мне кажется, отличить МиГ от F-35, ИИ сможет. А если в зону патрулирования залетит самолёт-разведчик, замаскированный под пассажирский лайнер? Как ИИ поступит в этом случае? Или как объяснить ИИ, когда можно открывать огонь на поражение, а когда – нет? Так что, именно военные ИИ, без строгого контроля – на самом деле, могут быть опасны. А вот как именно их контролировать – лично у меня пока что идей особо нет. Я ни в коем разе не думаю, что ИИ, установленный в какой-нибудь истребитель или бомбардировщик, на самом деле может захотеть нанести ядерный удар просто так, чтобы «убить всех человеков», или захватить мир (зачем ему мир, что он с ним делать будет?), но вот «наломать дров», как мне кажется, такой аппарат запросто сможет…
Так что, наверное, прежде чем массово внедрять ИИ в «оборонку», или куда-то ещё, надо подумать, как именно за ним можно будет установить контроль, чтобы не получилось ситуации, как в тех же «Недетских играх»…
Моя страничка на Boosty, где статьи выходят чаще. Там можно предложить ту или иную книгу или тему на обзор..