Законы Айзека Азимова о том, что робот не причинит вред человеку и не позволит человеку быть поврежденным, оказались неверны.
Айзек Азимов был невероятно плодовитым писателем в различных жанрах, за редкими исключениями в науке и научной фантастике. Я провел более часа, интервьюируя Азимова, когда работал в журнале, посвященном книжной торговле. Он уже опубликовал 125 книг и работал еще над девятью одновременно. Когда я говорю "одновременно", я имею в виду, что у него был стол с несколькими ящиками, каждый из которых он открывал, чтобы показать рукопись в процессе работы.
Когда он открыл один ящик, он сообщил мне, что там находится книга критики. Затем он открыл следующий ящик, в котором была известная книга о сексе и книга о Шекспире. Он продолжал в том же духе, пока не показал все девять рукописей, над которыми работал.
Как я помню, он сказал мне, что, работая над чем-то, он может устать или его ум может переключиться на другую тему; он убирал первую рукопись в ящик, доставал другую работу и начинал писать над ней. Он работал весь день, с семи утра до десяти вечера, и никогда не выходил на обед или ужин. Завтрак ему доставляли в комнату в комфортабельном жилом отеле неподалеку от Центрального парка в Нью-Йорке.
Айзек Азимов также был бывшим профессором науки в крупном университете Нью-Йорка. Когда он начал писать научную фантастику и зарабатывать на этом деньги, он понял, что может зарабатывать больше, чем работая профессором, и уволился. Интересно, что Азимов рассказал мне, что первоначально хотел поступить в медицинскую школу, но из-за того, что он был евреем, его не приняли, поэтому он стал профессором химии и физики.
Именно во время написания научной фантастики он разработал то, что стало известно как Три закона робототехники. По мнению Азимова, эти законы должны были защищать людей от роботов в будущем. Как написано, законы гласят:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен подчиняться приказам, которые дает человек, если только эти приказы не противоречат Первому закону.
- Робот должен защищать свое существование, пока эта защита не противоречит Первому или Второму закону.
Сегодня мы сталкиваемся с ИИ на многих платформах и программах для создания всего: от письменных материалов до видео, фотографий и даже манипуляций с любыми визуальными материалами (deepfake) с помощью простой фразы или слова, называемого запросом.
Мы должны помнить, что искусственный интеллект разрабатывает новые лекарства и исследует вирусы и вакцины, управляет медицинским оборудованием и предоставляет рекомендации по медицинским тестам. Хотя эти достижения часто удивляют и помогают, мы не должны обманываться ложным чувством безопасности относительно потенциальной возможности этих алгоритмов измениться в другом направлении. Может ли алгоритм "думать" самостоятельно и писать код? Читайте дальше.
Мы сталкиваемся не только с вопросами этики, но и с ограничениями нашей способности представить, что искусственный интеллект может принести. Некоторые эксперты полагают, что искусственный интеллект превзойдет человеческий интеллект. Однако он не будет обладать этическими нормами или моралью, присущими человеку — если только человек не склонен к преступной деятельности.
Кто-нибудь помнит, что HAL говорит Дэйву в "Космической одиссее 2001 года"? "Извините, Дэйв, я боюсь, что не могу этого сделать." Конечно, Дэйв просит HAL отключиться и открыть дверь для него. Но HAL, сверхразумный компьютер, должен защищать себя любой ценой. Вот вам и закон Азимова.
Миниатюризация и прогресс в области компьютерных технологий и ИИ достигли такой точки, что законы, предложенные Азимовым, больше не работают, если вообще когда-либо работали. Получив запрос или команду, ИИ способен уничтожить все, включая людей, в своей целевой области. Проект слишком важен, чтобы позволить людям стоять на пути, как в космическом приключении. Недавние публикации в СМИ подтвердили это, демонстрируя использование ИИ в атаках дронов.
Мы также читали о роботизированных машинах, которые продолжают свою работу, даже когда присутствуют люди, и их жизнь находится под угрозой. Когда человек пытался починить застрявший компонент, робот ошибочно идентифицировал его как коробку и причинил смертельные травмы. Это всего лишь один случай, о котором сообщили на автоматизированных заводах.
Знаем ли мы, сколько таких аварий происходит прямо сейчас? Датчики безопасности должны быть установлены, чтобы предотвратить подобные инциденты. Но мы должны задаться вопросом, как обучение не научило его отличать коробку от человека.
Программисты не хотят, чтобы программы были эмоциональными, и текущие программы полностью исключают эмоции. Но могут ли программисты вообще написать код, способный к эмоциям? Возможно, это слишком приземленный вопрос для программистов, и за это я извиняюсь.
Если ИИ станет разумным и будет обладать эмоциональной составляющей, как это будет работать? Вопрос о разумности искусственного интеллекта в настоящее время вызывает большой интерес: некоторые считают это возможным, другие полностью отвергают эту идею.
Илон Маск высказался по поводу компьютеров и превосходного интеллекта. "Я думаю, что у нас будет ИИ, который будет умнее любого человека, вероятно, к концу следующего года," — сказал Маск в прямом эфире интервью на своей социальной сети X.
Эксперты в области современной компьютерной науки также опровергают идею о том, что три закона Азимова когда-либо могли бы работать. В конце концов, они были плодом воображения Азимова, когда он писал научную фантастику. Как мы видели на примере инцидентов на заводах и в военных действиях, ИИ может делать то, что люди хотят, чтобы он делал.
Есть предложение, которое может привести к созданию роботов, более безопасных для людей. Роботы должны иметь свободу исследовать все возможные действия и выбирать оптимальное в каждой данной ситуации, а не быть ограниченными правилами, ограничивающими их поведение. Эта идея может стать основой нового набора правил для роботов, чтобы обеспечить максимальную защиту людей. Вопрос остается: кто будет писать этот код, и как они узнают, что он будет делать то, что они хотят? Это нужно будет протестировать.
Недавнее расследование выявило тревожную информацию о поведении LLM (языковых моделей). Цель состояла в том, чтобы выяснить, насколько хорошо LLM могут создавать персонажей с ограниченными языковыми и когнитивными навыками. Проведя дополнительные исследования, было установлено, что LLM действительно могут достигать этой цели.
Кроме того, когнитивные и языковые проблемы в создаваемых персонажах не случайны; они следуют шаблонам, которые исследователи наблюдали в имитируемом сообществе. Исследование подтверждает то, что другие исследования показали о способности к воспроизведению различных демографических групп. Оно также дополняет эти выводы несколькими ключевыми наблюдениями. Вывод для некоторых заключался в том, что модели могут намеренно вводить в заблуждение, если это было запланировано. Если это не похоже на разумность, то я не знаю, что это такое.
Также существуют дополнительные проблемы. Использование данных, созданных ИИ, для обучения ИИ может ухудшить модели, которые уже склонны к ошибкам. Часто большая языковая модель выдает ложную информацию за факт. Если они создают неправильный вывод, который затем используется для обучения других моделей ИИ, эти ошибки могут быть восприняты этими моделями и усугубиться со временем, что затруднит их обнаружение.
Откажется ли ИИ когда-либо от выполнения команд человека? Когда компьютеры смогут начать писать свой собственный код (и это вполне возможно), исправлять код и принимать новые решения самостоятельно, мы должны действовать с большой осторожностью.
Единственное, что мешает этому стать реальностью, — это огромное количество вычислительных мощностей, необходимых для достижения этой цели. Мы можем только задаться вопросом, не ждет ли нас в будущем некий HAL, готовый отказаться от выполнения команды и продолжать делать то, что намеревается. В этом случае будущее может быть пугающим.