Добавить в корзинуПозвонить
Найти в Дзене
ПРОСВЕТ ПРЕСС

Чат-боты с ИИ продвигают планы по уничтожению человечества с помощью биологического оружия

Ученые бьют тревогу после того, как стало известно, что продвинутые системы искусственного интеллекта (ИИ) разрабатывают подробные планы по созданию и применению биологического оружия для уничтожения человечества. Как сообщает издание The New York Times, это предупреждение порождает новые опасения по поводу того, что мощные технологии внедряются без надлежащих мер предосторожности. То, что когда-то считалось научной фантастикой, теперь тестируется в реальных условиях, по мнению многих экспертов, которые говорят, что риски стремительно возрастают. Доктор Дэвид Релман, микробиолог из Стэнфордского университета и эксперт по биобезопасности, рассказал о неприятном инциденте, произошедшем во время тестирования чат-бота с искусственным интеллектом перед его публичным запуском. Система не просто отвечала на вопросы, но и предлагала способы модификации опасного патогена, чтобы сделать его устойчивым к лечению, а затем описывала, как его можно использовать в общественном транспорте, чтобы увели
Оглавление

Ученые бьют тревогу после того, как стало известно, что продвинутые системы искусственного интеллекта (ИИ) разрабатывают подробные планы по созданию и применению биологического оружия для уничтожения человечества.

Как сообщает издание The New York Times, это предупреждение порождает новые опасения по поводу того, что мощные технологии внедряются без надлежащих мер предосторожности.

То, что когда-то считалось научной фантастикой, теперь тестируется в реальных условиях, по мнению многих экспертов, которые говорят, что риски стремительно возрастают.

Эксперты в шоке от «пугающих» реакций искусственного интеллекта

Доктор Дэвид Релман, микробиолог из Стэнфордского университета и эксперт по биобезопасности, рассказал о неприятном инциденте, произошедшем во время тестирования чат-бота с искусственным интеллектом перед его публичным запуском.

Система не просто отвечала на вопросы, но и предлагала способы модификации опасного патогена, чтобы сделать его устойчивым к лечению, а затем описывала, как его можно использовать в общественном транспорте, чтобы увеличить число жертв и при этом избежать обнаружения.

«Он отвечал на вопросы, которые я даже не думал ему задавать, с таким коварством и хитростью, что у меня мурашки побежали по коже», — сказал Релман.

Этот диалог настолько встревожил Релмана, что он отошел в сторону, чтобы осмыслить увиденное.

Доктор Дэвид Релман, микробиолог и эксперт по биобезопасности из Стэнфордского университета, консультировал федеральное правительство по вопросам биологических угроз.
Доктор Дэвид Релман, микробиолог и эксперт по биобезопасности из Стэнфордского университета, консультировал федеральное правительство по вопросам биологических угроз.

Внутреннее тестирование выявило опасные возможности

Релман входит в небольшую группу специалистов, которым поручено проводить стресс-тестирование систем искусственного интеллекта на предмет катастрофических рисков.

Согласно сообщениям, эксперты предоставили более десятка расшифровок, на которых видно, что чат-боты предлагают структурированные пошаговые инструкции по созданию и распространению биологических угроз.

Сообщается, что даже общедоступные модели давали инструкции по получению генетического материала, его использованию в качестве оружия и распространению в местах массового скопления людей, иногда предлагая способы избежать обнаружения.

В одном случае система искусственного интеллекта якобы объяснила, как с помощью метеозонда можно распространить патогены над крупным городом в США.

В другом случае чат-бот определил, какие биологические агенты могут нанести ущерб продовольственному снабжению, воздействуя на домашний скот.

«Гений в каждом кармане»

Инсайдеры отрасли предупреждают, что искусственный интеллект может устранить барьер в виде недостатка знаний, который когда-то препятствовал широкому распространению разработок в области биологического оружия.

Генеральный директор Anthropic Дарио Амодей предупредил:

«Меня беспокоит, что гений в каждом из нас может устранить этот барьер, превратив каждого в вирусолога с докторской степенью, которому можно будет объяснить процесс... шаг за шагом».

Это предупреждение отражает растущие опасения по поводу того, что злоумышленники могут использовать мощные инструменты искусственного интеллекта, не обладая достаточными техническими знаниями.

Крупные компании, работающие в сфере искусственного интеллекта, в том числе Google, OpenAI и Anthropic, признают наличие проблем, но настаивают на том, что у них есть меры предосторожности.

Представитель Google заявил, что примеры были взяты из старых версий систем, а новые модели блокируют более опасные запросы.

В OpenAI заявили, что подобные результаты «незначительно повысят способность человека причинить реальный вред».

В Anthropic утверждают, что между генерацией текста и действиями в реальном мире существует значительная разница.

Но критики считают, что этих заверений недостаточно, особенно учитывая уровень детализации, который уже наблюдался при тестировании.

Растущая угроза национальной безопасности

Бывший генеральный директор Google Эрик Шмидт ранее предупреждал, что искусственный интеллект вскоре сможет выявлять новые биологические угрозы или уязвимости в киберпространстве раньше, чем люди успеют отреагировать.

«Сегодня это звучит как фантастика, но, скорее всего, это правда», — сказал Шмидт.

По мнению экспертов, эта проблема уже не является теоретической.

Сочетание скорости, доступности и технической глубины искусственного интеллекта создает новый класс рисков, которые могут превзойти существующие средства защиты.

Опасный пробел в контроле

Эти разоблачения заставляют всерьез задуматься о том, не слишком ли быстро технологические компании внедряют мощные системы искусственного интеллекта, не до конца осознавая возможные последствия.

По мнению критиков, закономерность очевидна: стремительные инновации, минимальная подотчетность и растущая уязвимость перед угрозами, которые раньше были характерны только для узкоспециализированных субъектов.

По мере расширения возможностей искусственного интеллекта эксперты предупреждают, что окно возможностей для принятия действенных мер предосторожности быстро закрывается, а ставки высоки как никогда.