В то время как чат-боты, такие как ChatGPT и Claude, привлекают внимание общественности, исследователи предупреждают о реальной угрозе: специализированные системы ИИ в области биологических наук с большей вероятностью могут использоваться в негативных целях. Двойное назначение этих инструментов представляет собой уникальную проблему для регулирующих органов.
Переведено, но не озвучено командой LearnMore.tech с сайта https://the-decoder.com/
За последние два года было много написано о «перспективах и опасностях» искусственного интеллекта (ИИ). Некоторые считают, что системы ИИ могут помочь в создании химического или биологического оружия.
Насколько реалистичны эти опасения? Попытаемся отделить реальные риски от шумихи в Интернете.
Точные последствия применения «химического» оружия пока неясны. Однако совершенно очевидно, что нормативные акты не поспевают за развитием технологий.
Оценка рисков
Оценить риск, который представляет собой модель ИИ, непросто. Более того, не существует последовательного и общепринятого способа сделать это.
Возьмем, к примеру, большие языковые модели (LLM). Это движки ИИ, стоящие за такими чат-ботами, как ChatGPT, Claude и Gemini.
В сентябре OpenAI выпустила LLM под названием o1 (по прозвищу «Strawberry»). После его выпуска разработчики заявили, что новая система имеет «средний» уровень риска помочь кому-то создать биологическое оружие.
Такая оценка может показаться тревожной. Однако при более внимательном прочтении карты системы o1 обнаруживаются более простые риски безопасности.
Например, модель может помочь неподготовленному человеку быстрее сориентироваться в открытой базе данных генетической информации о вирусах. Такая помощь вряд ли окажет существенное влияние на биобезопасность.
Несмотря на это, СМИ быстро сообщили, что новая модель «внесла значительный вклад» в риски создания оружия.
За пределами ИИ-чатботов
Когда в конце 2022 года была запущена первая волна чат-ботов LLM, широко распространились опасения, что эти системы могут помочь необученным людям развязать пандемию.
Однако эти чат-боты основаны на уже существующих данных и вряд ли смогут придумать что-то действительно новое. Они могут помочь предприятию, занимающемуся биотерроризмом, выдвинуть несколько идей и задать первоначальное направление, но не более того.
Более серьезную озабоченность вызывают не чат-боты, а системы ИИ, применяемые в биологических науках. Многие из них, такие как серия AlphaFold, помогут исследователям в борьбе с болезнями и поиске новых терапевтических препаратов.
Однако некоторые системы могут быть использованы не по назначению. Любой ИИ, который действительно полезен для науки, скорее всего, будет обоюдоострым мечом: технология, которая может принести огромную пользу человечеству, одновременно несет в себе риски.
Подобные системы ИИ являются яркими примерами так называемых «проблемных исследований двойного назначения».
Прионы (опасные белкИ) и пандемии
Сами по себе проблемные исследования двойного назначения не представляют ничего нового. Люди, занимающиеся вопросами биобезопасности и нераспространения ядерного оружия, беспокоятся об этом уже давно. Многие инструменты и методы в химии и синтетической биологии могут быть использованы в злонамеренных целях.
Например, в области белковой науки уже более десяти лет существует опасение, что новые вычислительные платформы могут помочь в синтезе потенциально смертельно опасных неправильной формы белков, называемых прионами, или в создании нового токсинного оружия. Новые инструменты искусственного интеллекта, такие как AlphaFold, могут приблизить этот сценарий к реальности.
Однако, хотя прионы и токсины могут быть смертельно опасны для относительно небольших групп людей, ни один из них не может вызвать пандемию, способную посеять настоящий хаос. При изучении биотерроризма нас в первую очередь интересуют вещества, обладающие пандемическим потенциалом.
Исторически планирование биотерроризма было сосредоточено на Yersinia pestis, бактерии, вызывающей чуму, и вирусе ветряной оспы, который вызывает оспу.
Главный вопрос заключается в том, смогут ли новые системы искусственного интеллекта что-то изменить для неподготовленного человека или группы, стремящихся получить такие патогены или создать что-то с нуля.
Сейчас мы просто не знаем.
Правила оценки и регулирования систем ИИ
Пока ни у кого нет окончательного ответа на вопрос, как оценить новую картину риска биологического оружия, созданного ИИ. Наиболее продвинутое планирование было подготовлено уходящей администрацией Байдена в Соединенных Штатах в виде исполнительного указа о развитии ИИ, изданного в октябре 2023 года.
Ключевое положение указа поручает нескольким американским агентствам разработать стандарты для оценки влияния новых систем ИИ на распространение химического, биологического, радиологического или ядерного оружия. Эксперты часто объединяют их под заголовком «CBRN», но новая динамика, которую мы называем CBRN+AI, все еще остается неопределенной.
Указ также устанавливает новые процессы регулирования аппаратного и программного обеспечения, необходимого для синтеза генов. Это механизм, позволяющий превратить цифровые идеи, созданные системой искусственного интеллекта, в физическую реальность биологической жизни.
Министерство энергетики США вскоре должно выпустить руководство по управлению биологическими рисками, которые могут быть вызваны новыми системами ИИ. Это позволит понять, как ИИ может повлиять на биобезопасность в ближайшие годы.
Политическое давление
Эти зарождающиеся нормы уже подвергаются политическому давлению. Вступающая в должность администрация Трампа в США пообещала отменить указ Байдена об ИИ, считая, что он основан на «радикальных левых идеях». Эта позиция основана на неуместных спорах в американской политике идентичности, которые не имеют никакого отношения к биобезопасности.
Несмотря на свое несовершенство, исполнительный указ - это лучший план, который поможет нам понять, как ИИ повлияет на распространение химических и биологических угроз в ближайшие годы. Его отмена нанесет огромный ущерб национальным интересам США и глобальной гуманитарной безопасности в целом.