Найти в Дзене

Вечерочка, эксперты!


Сегодня у нас на повестке свежий доклад про ИИ и биологические угрозы. Чистый Resident Evil на стыке с «Черным зеркалом». Под обложкой: автолабы с вируснёй, точечная генетическая модификация и даже прогностика мутаций. Поехали разбираться, что там с вирусами будущего, и как ИИ может сделать их еще опаснее.

Репорт «ИИ и эволюция биологических рисков для национальной безопасности» выпустил американский аналитический центр Center for a New American Security (CNAS) в 2024 году. Авторы предваряют исследование воспоминаниями о ковиде и говорят, что с учетом распространения ИИ могут возникнуть риски сразу по нескольким фронтам. Каким образом? Потерпите, сейчас объясним.

Прежде чем заглядывать на перспективу, пройдемся по основным имеющимся рискам в сфере биологических угроз.

➡️Пункт первый: природные пандемии. Ну, это вам и без того уже хорошо знакомо: безо всяких ИИ испанский грипп унес от 17,4 до 100 миллионов жизней, ковид — около 7 миллионов.

➡️Второй пункт: лабораторные утечки. Think Tank приводит два кейса: утечку сибирской язвы в Свердловске в 1979 году, когда погибли более 64 человек, и утечку бруцеллеза в Китае в 2019 году.

➡️Третий пункт: «госпрограммы». Так в CNAS нежненько называют программы разработки биооружия СССР, США и Японии в XX веке.

➡️Наконец, «негосударственные акторы». Речь о признанных террористических организациях в частности. Исследователи пишут, что у одной из таких в свое время нашли культуры возбудителей сибирской язвы. Исследователи отмечают, что особо серьезных угроз в сфере биологической опасности террористы пока не представляли — но, как полагают авторы отчета, им просто не хватало знаний. Тут-то мы и подходим к теме ИИ.

ИИ усугубляет ситуацию тем, что может выдавать пошаговые инструкции по разработке вирусов, патогенов и биологического оружия — уже были прецеденты, когда «помощник» подсказывал этапы разработки токсичных химикатов. Помимо распространения знаний, беда возникнет и из-за углубления знаний — ИИ типа AlphaFold от DeepMind могут предсказывать мутации вирусов, а значит, можно выводить патогены с заданными свойствами, типа устойчивости к препаратам.

Автоматизация работы над всякой гадостью тоже может сказаться — уже действует стартап Emerald Cloud Lab, который, по словам его авторов, представляет из себя «дистанционно управляемое исследовательское учреждение». Вроде и безопасно — персонал не заболеет, но что, если контроль над автолабой перехватят? Ну и, на сладкое, CRISPR — технология точечной модификации генома в связке с ИИ тоже может изрядно наломать дров, типа создания вируса под конкретные генетические группы.

🤖 Словом, риски сводятся к четырем вещам: упрощению разработки биооружия, таргетированным атакам, ослаблению доступа и — как и в случае с ядерным оружием в связке с ИИ, — ускорению кризисов. ИИ может сократить время на принятие решений в случае угрозы. И не факт, что его подсказки будут верными.

🦠 Что предлагает CNAS? Во-первых, жестко обложить контролем заказы на синтез ДНК в автолабах и «облачных лабораториях». Во-вторых, постоянно мониторить и тестировать ИИ на возможность создания биооружия. Наконец, ввести лицензирование на биотехнологии, обложив опасные инструменты ограниченным доступом, аналогичным сфере ядерных вооружений.

Вот такой у нас сегодня грустный киберпанк, эксперты. А полное исследование мы по традиции приложим в комментариях.

#государства_и_ит
2 минуты