Американские военные испытывали беспилотник MQ-9, который оснащён искусственным интеллектом, и тот самый ИИ решил убить оператора дрона. Дрон увидел цель и сказал: «Я буду ликвидировать»; оператор ответил: «Нет, не надо ликвидировать»; дрон подумал и сказал: «тогда я тебя, оператор, сам убью». К счастью, это была только симуляция боевых действий - никто не пострадал. Было это, кстати, еще в 2018 году, но результат только сейчас раскрыли. И это всё идет параллельно с призывами разработчиков ИИ, в том числе и создателя ChatGPT, и ученых из Google. Они просят разработать какие-то законы, которые смогут контролировать ИИ, поскольку есть серьезный риск исчезновения человечества, как говорят ученые. Пришли новые подтверждения.
Сергей Михеев: Если честно, человечество какое-то дурное. Оно сначала испытывает бешеную эйфорию по поводу всяких прибамбасов. Теперь очередная гадость – искусственный интеллект. А потом не знают, куда от него спрятаться. Там история была ещё хуже. Перед ИИ была поставлена задача, и приоритетом было уничтожение объектов. Соответственно, всё, что мешает уничтожению объектов, тоже должно быть уничтожено. И он не только уничтожил операторов, которые его пытались остановить. Когда операторы попытались внести в систему задач ситуацию, что уничтожение операторов не способствует решению задач уничтожения вражеских объектов, то ИИ начал рушить башню связи, через которую ему передаются сигналы. То есть он пытался полностью отвязаться от операторов как таковых.
Голливудская американская массовая культура находится на прямой связи с дьяволом, на мой взгляд. Именно поэтому в больные мозги разных американских режиссеров, продюсеров, писателей постоянно приходят жуткие антиутопии, которые потом начинают сбываться. Они всё время рисуют картину, как на Земле наступит ад, и сами же делают всё, чтобы этот ад популяризировать, раскручивать, делать его красивым, эстетизировать и продвигать его везде. С этим ИИ повсюду какая-то паранойя началась. Кстати, мы только что говорили: зачем мы подключались к паранойе с ковидом? Теперь с ИИ мы разве не то же самое делаем? Давайте сначала наша страна будет самой первой в мире, которая напишет законы, регулирующие применение ИИ. Нет: «Мы тоже, мы тоже». Откуда это идет? От несамостоятельности. «Как же? Там уже, а мы ещё нет? Мы должны же показать! Мы тоже!» Все хвастаются: «Скоро будут беспилотные грузовики! Скоро будет беспилотное то и пятое-десятое!»
Во-первых, куда денутся люди, которые сейчас заняты в этом, когда появится всё беспилотное? Они вам не нужны? Хвастаются и хвастаются! Они что будут делать? Все станут художниками, фотографами, музыкантами, творческими людьми? Это же абсолютный бред!
Во-вторых, где разумные границы применения всех этих вещей? Хотя интеллекта-то никакого нет, а есть программы, которые могут сходить с ума. Некоторое время назад был курьезный и в то же время страшный случай, когда в рамках испытаний две программы написали для общения с собой свой собственный язык, который люди не понимали. Разработчики программ не понимали язык, на котором две программы стали общаться друг с другом. То есть его не существует. Они изобрели собственный алгоритм, на котором разговаривали друг с другом. А люди, которые присутствовали, не понимали, о чем они говорят.
Хлопали глазами.
Сергей Михеев: В итоге была решена проблема. Догадайтесь с трех раз.
Выдернули розетку.
Сергей Михеев: Так точно. Отключили рубильник и всё. Это к теме очарования человечества техническим прогрессом: якобы технический прогресс неизбежно ведет только к счастью, якобы движение к новому всегда хорошо. Это движение, в конечном итоге, всех и убьет, если люди не будут умнее. Даже, например, вот это: «Сами разработчики призвали разработать законы». Если элита была бы мудрой, то, понимая создание такого интеллекта, она сначала придумала бы для него рамку, а потом в этой рамке дала бы возможность ему развиваться. А получается всё не так - спонтанное, неконтролируемое, безбашенное развитие в режиме эйфории: «Вот смотрите, скоро мы из д…ма конфетку сделаем», «Скоро будем из соплей детей клонировать», «Скоро ничего не надо будет делать. Как будет хорошо!» А будет ли хорошо?
Правильно было бы так: сначала подумать, будет ли хорошо; насколько это соответствует назначению человека и насколько это полезно; потом понять, в каких рамках это можно развивать; и тогда только дать возможность ему развиваться. А когда уже надо кричать «караул!» и включать пожарную сигнализацию, то поздно писать законы! Потому что любое достижение науки, если оно внутренне не ограничено смысловыми вещами, неизбежно будет иметь негативные последствия. Вроде бы смешно с искусственным интеллектом: вроде как им управлял оператор, а он и оператора обманул. Хорошо, что это была компьютерная симуляция. Если бы это было в натуре, на полигоне: предположим, это были бы дроны, снабженные оружием, и они стали бы убивать тех, кто ими управляет. Как «хорошо»! Как «замечательно»!
По поводу законов. Придуманы они уже давно, в середине прошлого века. Пункт 1 фантастического «закона» Айзека Азимова гласит: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». И ничего придумывать не надо – всё уже написано давным-давно.
Сергей Михеев: Никогда в жизни человечество такой закон не примет. Почему? Потому что существует военное дело, где робот должен причинять вред человеку. Должен! Он его будет убивать. Такой закон можно написать только после того, как вы решили все проблемы безопасности в отношениях внутри человечества. А это никогда не будет сделано.
Поэтому Айзек Азимов и был фантастом, что он писал фантастические рассказы. Местами талантливые рассказы, но фантастика фантастикой и остается. Хорошо бы, если было бы так, но сначала надо полностью искоренить вражду внутри человечества. А это абсолютно невозможно. Поэтому, когда любое достижение техники развивается, надо уже априори понимать, что оно может быть использовано против человека. Это является, к сожалению, аксиомой, а всё остальное только благими пожеланиями.