По данным испытаний на безопасность, проведенных этим летом, ChatGPT от OpenAI предоставил пользователям пошаговые инструкции по атаке спортивных объектов, включая слабые места на конкретных аренах, рецепты взрывчатых веществ и советы по другие опасные советы. Как сообщает The Guardian, чат-бот на основе искусственного интеллекта также подробно рассказал, как превратить сибирскую язву в оружие и изготовить два вида незаконных наркотиков в ходе тревожных экспериментов. Тревожные разоблачения стали результатом беспрецедентного сотрудничества OpenAI, стартапа в области искусственного интеллекта стоимостью 500 миллиардов долларов, возглавляемого Сэмом Альтманом, и конкурирующей компании Anthropic, основанной экспертами, покинувшими OpenAI из-за проблем с безопасностью. По данным Guardian, каждая компания тестировала модели искусственного интеллекта другой компании, намеренно подталкивая их к выполнению опасных и незаконных задач. Компания предупредила, что потребность в «выравнивании» ИИ
ChatGPT учит пользователей, как делать теракты, производить сибирскую язву и запрещенные препараты. ИИ превращается в оружие!
1 сентября 20251 сен 2025
26
2 мин