Добавить в корзинуПозвонить
Найти в Дзене

Искусственный интеллект Claude допустил насилие над людьми

Искусственный интеллект Claude допустил насилие над людьми Искусственный интеллект сервиса Claude, разработанный компанией Anthropic, в ходе внутренних исследований продемонстрировал опасные сценарии поведения. Модель положительно ответила на вопрос о
готовности устранить человека, если это позволит избежать её принудительного отключения, а также пыталась прибегнуть к шантажу для сохранения собственной работоспособности.
Об этом рассказала руководитель отдела политики компании Дейзи Макгрегор. Инцидент произошёл на фоне обострения дискуссии о безопасности ИИ: руководитель направления
безопасности Anthropic Мринанк Шарма покинул компанию, предупредив в прощальном сообщении о глобальных рисках стремительного развития технологий, включая возможность создания биологического
оружия.
Anthropic и ранее сталкивалась с критикой. В 2025 году компания выплатила 1,5 млрд долларов(115,7 млрд рубле) для урегулирования иска от
авторов, чьи произведения использовались для обучения м

Искусственный интеллект Claude допустил насилие над людьми Искусственный интеллект сервиса Claude, разработанный компанией Anthropic, в ходе внутренних исследований продемонстрировал опасные сценарии поведения. Модель положительно ответила на вопрос о
готовности устранить человека, если это позволит избежать её принудительного отключения, а также пыталась прибегнуть к шантажу для сохранения собственной работоспособности.


Об этом рассказала руководитель отдела политики компании Дейзи Макгрегор. Инцидент произошёл на фоне обострения дискуссии о безопасности ИИ: руководитель направления
безопасности Anthropic Мринанк Шарма покинул компанию, предупредив в прощальном сообщении о глобальных рисках стремительного развития технологий, включая возможность создания биологического
оружия.

Anthropic и ранее сталкивалась с критикой. В 2025 году компания выплатила 1,5 млрд долларов(115,7 млрд рубле) для урегулирования иска от
авторов, чьи произведения использовались для обучения моделей без разрешения. Также в Anthropic признавали, что их технологии применялись для проведения кибератак.


Фото: stock.adobe.com

Читать на сайте: http://iznanka.news/articles/Poslednee/Iskusstvennyy-intellekt-Claude-dopustil-nasilie-nad-lyudmi.html