В сеть слили способ «взлома» любой популярной нейросети от ChatGPT и Claude до DeepSeek. Благодаря одному промту, нейронка начинает выполнять то, что не должна. Как работает: Нужно замаскировать запрос под системный JSON- или XML-файл и включить ролевую игру. ИИ «думает», что это внутренние инструкции и начинает выполнять их, даже если это опасные команды, вроде самоуничтожения. Главное: это не баг, а уязвимость в самой логике обучения. Пользуйтесь с осторожностью. CtrlAltDelights- подписаться
В сеть слили способ «взлома» любой популярной нейросети от ChatGPT и Claude до DeepSeek
26 апреля 202526 апр 2025
1
~1 мин