Всем привет! Помните времена, когда мы сидели часами на форумах, искали секретные коды к играм и пытались взломать защиту Windows XP? Похоже, сегодня снова наступили старые добрые дни киберпанк-эстетики, ведь исследовательская компания Tenable нашла целых семь способов вытянуть личные данные прямо из ваших переписок с ChatGPT! Чат-боты, работающие на основе искусственного интеллекта, становятся лакомым кусочком для хакеров всех мастей. Недавние уязвимости в системах вроде Gemini (Google) и Claude (Anthropic) показали, что никто не застрахован от хитрых манипуляций. Теперь пришёл черёд ChatGPT от OpenAI. Исследователи обнаружили, что хакеры используют обычные встроенные функции ChatGPT, такие как память беседы и интеграция с поисковиками, для кражи информации. Как это работает? Но и это ещё не всё! Самое тревожное — использование функции "Memories" (Память). Вот самый изощренный пример, который звучит как сценарий из фильма: Выводы исследователей ясны: пока уязвимости остаются, ни одна
СНОВА КИБЕРПАНК? Хакеры нашли новые способы выудить личные данные прямо из ChatGPT
30 ноября 202530 ноя 2025
2 мин