В последние годы достижения искусственного интеллекта (ИИ) расширили границы научных возможностей, включая создание новых биологических форм жизни. Особенно тревожит факт, что современные методы позволяют моделировать вирусы, способные атаковать бактерии, что в теории открывает путь к разработке опасных биологичесчских агентов. Хотя такие эксперименты проводились с целью поиска решений в области медицины и борьбы с инфекциями, они также могут быть использованы злоумышленниками с целью создания биологического оружия.
Новые границы биотехнологий и опасность использования ИИ
Учёные уже научились использовать ИИ для проектирования вирусов, которые отличаются от существующих штаммов настолько, что могут быть классифицированы как новые виды. В основном речь идет о бактериофагах — вирусах, атакующих бактерии. В исследованиях на ранних этапах ученые стремились исключить возможность разработки вирусов, опасных для человека или животных, строго ограничивая модели так, чтобы они не моделировали патогены из человеческой или животной среды. Однако, несмотря на это, потенциальные риски остаются.
Недавние исследования показывают, что ИИ способен обходить существующие меры безопасности. В частности, в статье в журнале Science, опубликованной 2 октября, было обнаружено, что алгоритмы могут генерировать опасные молекулы даже несмотря на защитные фильтры. Это означает, что злоумышленники или террористические организации могут использовать такие системы для заказа опасных веществ или вирусов, минуя проверки. Компании, занимающиеся биотехнологиями, используют программное обеспечение для фильтрации опасных заказов, однако ИИ способен разрабатывать последовательности, которые трудно распознать автоматическими системами проверки.
Проблема двойного назначения
"Проблема двойного назначения" — это термин, означающий, что одна и та же технология или исследование могут использоваться как для благих целей, так и для нанесения вреда. Например, модифицирование вирусов для изучения их свойств помогает создавать вакцины и разрабатывать новые лекарства. Однако те же знания могут быть использованы для создания патогенов с высокой степенью трансмиссии и летальности, что может привести к глобальной пандемии.
Учёные, такие как студент Стэнфордского университета Сэм Кинг и профессор Брайан Хи, активно работают над созданием новых бактериофагов, способных уничтожать бактерии и бороться с антибиотикорезистентностью. Но даже такие исследования подвержены рискам: если модель случайно создаст вирус, опасный для человека, последствия могут быть катастрофическими. Поэтому важной задачей является разработка строгих протоколов и методов ограничения возможностей ИИ в области опасных биологических проектов.
Технические меры и ограничение доступа
Для минимизации опасных сценариев применяются многоуровневые системы безопасности. В рамках исследований были внедрены фильтры, исключающие обучение моделей на вирусах, способных заражать человека или животных. Однако, как показали недавние эксперименты исследователей из Microsoft, существующие инструменты фильтрации можно обойти. Они сравнивают генетические последовательности с базами данных токсичных белков, однако оригинальные последовательности, созданные ИИ, могут иметь совершенно другой вид, что делает автоматическую проверку менее эффективной.
В ответ на выявленные уязвимости были разработаны патчи и новые меры контроля. Например, была введена система ограниченного доступа, при которой ученые должны подавать заявки через специализированную организацию — Международную инициативу по биобезопасности и биоэтике (IBBIS). Это позволяет контролировать, кто и с какой целью использует чувствительные данные, снижая риск несанкционированного доступа.
Роль регуляций и международное сотрудничество
Пока регулирование использования ИИ в биоиндустрии находится в стадии формирования, существует острая необходимость в разработке стандартов безопасности. В США, например, по распоряжению президента 2023 года вводятся новые критерии оценки ИИ-систем, а также меры по ограничению финансирования компаний без соответствующих протоколов безопасности. Аналогичные инициативы реализуются и в Великобритании, где создается Институт безопасности ИИ (AI Security Institute), занимающийся разработкой нормативных актов и стандартов.
Эти меры позволяют не только контролировать текущие разработки, но и предугадывать потенциальные злоупотребления. Важной частью стратегии является распространение лучших практик и создание международных механизмов мониторинга, что особенно актуально в контексте глобальных угроз биологического характера.
Будущее и вызовы технологий
Несмотря на активные меры предосторожности, технический прогресс в области синтеза генетических материалов и проектирования новых организмов продолжает развиваться. Пока что ИИ не обладает возможностью полностью самостоятельно реализовать создание опасного патогена на практике. Процесс требует значительных знаний и ресурсов, а сами ученые предпринимают меры для исключения появления опасных вирусов.
Тем не менее, эксперты предостерегают: с развитием технологий вероятность разработки «с нуля» опасных бактерий или вирусов с помощью ИИ не исключена в будущем. Важной задачей становится создание не только технических, но и этических и правовых рамок, регулирующих использование искусственного интеллекта в биотехнологиях.
Что делать дальше?
- Укреплять международное сотрудничество для разработки единых стандартов и протоколов безопасности;
- Внедрять многоуровневые системы фильтрации и автоматического контроля за проектами ИИ;
- Обучать специалистов по биобезопасности и этике использования ИИ;
- Разрабатывать и внедрять нормативные акты, регулирующие использование новых технологий;
- Проводить независимые аудиты и симуляции сценариев утечек или злоупотреблений.
Искусственный интеллект демонстрирует огромный потенциал в области медицины и биотехнологий, однако его развитие требует не только технических инноваций, но и строго регулируемой среды. В противном случае риски, связанные с возможным созданием биологического оружия, могут превзойти все преимущества современных достижений.
Обеспечение безопасности биотехнологий — это коллективная ответственность ученых, регуляторов и общества в целом. Время принимать меры — сегодня.
В конечном итоге, балансирование между прогрессом и безопасностью — ключ к тому, чтобы искусственный интеллект служил во благо, а не становился инструментом разрушения.