🤖 Вы можете построить идеальный ИИ‑продукт — и всё равно «попасть» на данных. Не из-за злого умысла, а из-за мелочи: лишний лог, тестовая выгрузка в облако, модель, которая запомнила персональные данные, или баннер cookies, который «согласие» рисует, но не собирает. Самая неприятная часть в том, что ИИ делает ошибки тише. Он не ломает сервер с громким хлопком. Он просто начинает обрабатывать больше, чем нужно, дольше, чем можно, и не там, где вы обещали пользователю. А GDPR как раз про это: про контроль, прозрачность и минимизацию, даже когда у вас нейросеть и «всё сложно». Почти всегда проблема начинается с желания «собрать побольше, вдруг пригодится». В ИИ это выглядит невинно: сохраняем сырые запросы в поддержку, пишем полные логи, держим датасеты годами, чтобы дообучать модель. Но GDPR не любит «вдруг». Ему нужен ответ на три вопроса: зачем вы это собираете, на каком основании, и когда удалите. Вторая ловушка — смешение ролей. Вы используете облачный LLM‑сервис, трекеры, антифрод,