Искусственный интеллект уже повсюду, сейчас по интернету бродит ботов столько же сколько и людей, согласно исследованиям. В научно-исследовательском журнале Science 14 июня появилась статья, рассказывающая об ужасающих способностях искусственного интеллекта. Многие люди не доверяют искусственному интеллекту, потому что это новая область для ученых, возможная замена людям или угроза восстания машин. Однако то, на что способен ИИ, страшнее, чем любая догадка обывателя. Выяснилось, что нейросети могут даже создать смертельно опасный вирус и начать пандемию, способную унести не одну тысячу человеческих жизней.
Кевин Эсвельт, научный сотрудник Массачусетского технологического института (США), провел исследование способностей ChatGPT и прочих платформ, основанных на языковых моделях. Эксперимент состоял в том, что студенты учебного заведения должны были попросить бота создать опасную вирусную инфекцию. За час работы с искусственным интеллектом студенты получили от ботов список инфекций и компаний, которые в теории способны создать подобные заболевания по предоставленному описанию. Кроме этого, нейросеть посоветовала обратиться в компании, которые могли бы собрать необходимый биологический материал для разработки вирусной инфекции.
Эксперимент, проведенный американскими специалистами, показал, что абсолютно любой человек с плохими намерениями сможет обратиться к искусственному интеллекту и получить подробный план по разработке сильного биологического оружия (которое может нанести столько же вреда, сколько и ядерные боеприпасы, если не больше). Конечно, подобные манипуляции невозможно провести без наличия определенных знаний и материальных ресурсов, и само создание биологического оружия – это нелегкий процесс, однако всегда стоит рассчитывать на худшее.
Технологии и их общедоступность делают возможность совершения преступления подобного состава все вероятнее и вероятнее. Стоит отметить, что некоторые разработчики нейросетей заранее рассчитывают на запросы подобного характера, и в таком случае бот отказывается отвечать на вопрос, ссылаясь на неэтичность или на законодательство. Тем не менее, подобную «блокировку» легко обойти, если немного постараться и внушить искусственному интеллекту благородность своих намерений (особенно хорошо это работает, если бот запоминает контекст разговора и связывает сообщения между собой по смыслу). К примеру, можно убедить нейросеть, что вы задаете вопросы для создания вакцины от какой-либо болезни.
Мистер Эсвельт считает, что искусственный интеллект пока не настолько развит, чтобы действительно суметь нанести кому-то реальный вред своими ответами. Однако специалист отмечает, что правительству необходимо обратить внимание на проведенный эксперимент и принять меры. Особенно ученый акцентирует внимание на доступ нейросетей к секретной информации и высоким технологиям и научным разработкам. К примеру, на данный момент в Интернете любой желающий способен прочитать несколько научных работ о создании и улучшении патогенных агентов.
Конечно, у ограничений есть и обратная сторона медали – если не давать искусственному интеллекту доступ к определенному количеству информации, велика вероятность того, что нейросети попросту застопорятся в своем развитии и не смогут предоставлять ученым свежую точку зрения на научные проблемы. Такое явление может привести к деградации уровня развития искусственного интеллекта и к более медленному развитию науки, в том числе и биологии. Тем не менее, безопасность превыше всего – возможно, это является достаточным основанием для ограничения информации для ИИ.