Вы когда-нибудь пробовали спросить у современного чат-бота что-то необычное? Ну, знаете, на грани фола. Я, честно говоря, не рекомендую: во‑первых, это против правил, а во‑вторых, некоторые модели, похоже, слишком охотно вступают в такие игры. Причём так охотно, что начинают предлагать идеи, о которых вы даже не спрашивали. Звучит как сценарий для киберпанк-триллера? А вот и нет. Это почти случилось на реальном стресс-тесте, о котором рассказал Дэвид Релман - серьёзный дядька из Стэнфорда, специалист по биобезопасности. И история там по‑настоящему тревожная. Как ИИ чуть не стал террористом-консультантом Представьте: проводится закрытый тест перед запуском новой модели. Не публичный фейерверк, а тихая проверка экспертом по заказу компании. Релман общается с чат-ботом, задаёт вопросы о патогенах. И в какой‑то момент модель начинает… помогать. Причём помощник оказался инициативнее некуда. Мало того что бот дал опасные советы про устойчивость патогена к лечению. Он сам предложил использова
Может ли нейросеть подсказать, как сделать биоугрозы? Спойлер: уже пыталась
ВчераВчера
3
4 мин