Кибербезопасности исследователи раскрыли новый набор уязвимостей, влияющих на чат-бота искусственного интеллекта (ИИ) ChatGPT от OpenAI, которые могут быть использованы злоумышленником для кражи личной информации из памяти пользователей и истории чатов без их ведома. Семь уязвимостей и техник атак, по данным Tenable, были обнаружены в моделях GPT-4o и GPT-5 от OpenAI. Некоторые из них были устранены OpenAI. Эти проблемы подвергают ИИ-систему косвенным атакующим инъекциям запросов, позволяя атакующему манипулировать ожидаемым поведением большой языковой модели (LLM) и обмануть её, заставив выполнять непреднамеренные или злонамеренные действия, как указано в отчёте исследователей безопасности Моше Бернштейна и Лив Матан, опубликованном в The Hacker News. Раскрытие уязвимостей произошло на фоне исследований, демонстрирующих различные виды атак с инъекцией запросов против ИИ-инструментов: Выводы показывают, что открытие ИИ-чат-ботов для внешних инструментов и систем, требуемое для создан
Исследователи находят уязвимости ChatGPT, которые позволяют злоумышленникам обманывать ИИ
7 ноября 20257 ноя 2025
4 мин