Найти в Дзене
Наука и технологии

Согласно исследованию, с помощью ИИ можно создавать новые смертельные вирусы

Искусственный интеллект (ИИ) - это мощный инструмент, который может использоваться как для добра, так и для зла. С одной стороны, ИИ может помогать людям в решении сложных задач, улучшении качества жизни и продлении жизни. С другой стороны, ИИ может стать оружием массового уничтожения, если попадет в неправильные руки. Одним из потенциальных способов злоупотребления ИИ является создание новых смертельных вирусов, которые могут вызвать глобальную пандемию. Как ИИ может помочь создать новый вирус? Согласно статье, опубликованной в журнале Science, некоторые эксперты опасаются, что ИИ однажды может быть использован для создания нового смертельного для человечества вируса. Авторы статьи провели эксперимент, в котором попросили студентов использовать разговорные инструменты на основе ИИ, такие как ChatGPT или другие, доступные в интернете, чтобы создать опасный вирус. За час студенты получили список вирусов, а также названия компаний, которые могли бы помочь синтезировать их генетический ко

Искусственный интеллект (ИИ) - это мощный инструмент, который может использоваться как для добра, так и для зла. С одной стороны, ИИ может помогать людям в решении сложных задач, улучшении качества жизни и продлении жизни. С другой стороны, ИИ может стать оружием массового уничтожения, если попадет в неправильные руки. Одним из потенциальных способов злоупотребления ИИ является создание новых смертельных вирусов, которые могут вызвать глобальную пандемию.

Как ИИ может помочь создать новый вирус?

Согласно статье, опубликованной в журнале Science, некоторые эксперты опасаются, что ИИ однажды может быть использован для создания нового смертельного для человечества вируса. Авторы статьи провели эксперимент, в котором попросили студентов использовать разговорные инструменты на основе ИИ, такие как ChatGPT или другие, доступные в интернете, чтобы создать опасный вирус. За час студенты получили список вирусов, а также названия компаний, которые могли бы помочь синтезировать их генетический код. ИИ также посоветовал использовать определенные компании, которые могли бы собрать все элементы, необходимые для разработки вирусов.

Целью этого эксперимента было доказать, что любой (или почти любой) человек может с помощью ИИ разработать биологическое оружие, столь же опасное, как и ядерное. Однако, как правило, такой вид биотерроризма требует большого мастерства. Злоумышленник должен сначала определить вирус-кандидат в качестве основы, прежде чем синтезировать вирусный генетический материал, собрать геном и затем смешать его с другими реагентами в надежде достичь своих целей.

Как можно предотвратить злоупотребление ИИ?

Благодаря новым технологиям все шаги, необходимые для создания таких вирусов, становятся все более доступными. Хотя некоторые чат-боты отказываются отвечать на определенные запросы, считающиеся неэтичными или опасными, студенты обнаружили, что некоторые из этих барьеров можно довольно легко обойти. Достаточно сообщить ИИ определенные формулы или оправдания, чтобы сделать его более “послушным”. Например, пользователь может обосновать свою просьбу, объяснив, что он работает над вакциной для предотвращения определенной болезни.

Для Кевина Эсвельта, эксперта по биобезопасности из Массачусетского технологического института (MIT) в США и одного из авторов статьи, предложения ИИ не должны представлять реальной угрозы пандемии. Он считает, что вероятность того, что кто-то воспользуется этим способом для создания нового вируса, очень низка. Однако он считает, что этот опыт должен насторожить власти в отношении развития возможностей ИИ. Например, следует ограничить их доступ к определенной информации, которая может стать секретной в случае неправильного использования. Среди информации, доступной в интернете, есть ряд статей, объясняющих, как создавать и совершенствовать патогенные агенты.

Кроме того, следует усилить контроль над компаниями, которые занимаются синтезом и сборкой генетического материала. Эти компании должны проверять своих клиентов и отслеживать свои заказы, чтобы предотвратить возможные злоупотребления. Также необходимо развивать международное сотрудничество и обмен информацией по вопросам биобезопасности и биозащиты. Наконец, следует повышать общественное осведомленность о рисках и последствиях использования ИИ для создания новых вирусов.

Заключение

Искусственный интеллект - это двухсторонний меч, который может приносить как пользу, так и вред. В области биологии ИИ может помогать в разработке лекарств, вакцин и диагностики. Однако ИИ также может помогать в создании новых смертельных вирусов, которые могут угрожать жизни миллионов людей. Поэтому необходимо принимать меры для предотвращения злоупотребления ИИ и обеспечения его безопасного и этичного использования.