Пока мы обсуждаем сложные лингвистические атаки на нейросети, старые добрые дыры в безопасности никуда не делись. Свежий кейс с ИИ-помощником Lilli от McKinsey это наглядно подтвердил. Исследователи из CodeWall натравили на бота автономного агента, и результат оказался пугающим. Всего за два часа ИИ-взломщик нашел банальную SQL-инъекцию. Это позволило ему получить полный доступ на чтение и запись к огромному массиву данных: 46,5 млн сообщений, сотни тысяч файлов и десятки тысяч учетных записей. По сути, «автопилот» для хакинга сделал за пару часов то, на что у человека ушли бы дни, используя при этом уязвимость из «нулевых». Этот инцидент — отличный урок для всех, кто внедряет нейросети в бизнес-процессы. Проблема не в том, что ИИ дырявый сам по себе. Проблема в скорости эксплуатации. Старые ошибки в архитектуре теперь наказывают бизнес мгновенно. Что из этого следует?
Безопасность ИИ-сервисов — это прежде всего базовая гигиена веб-разработки. Если ваш чат-бот имеет технический доступ