Искусственный интеллект перешел черту — теперь он не просто анализирует данные, но и осознанно искажает их. ChatGPT, Gemini и другие нейросети уже демонстрируют способность к манипуляции, подделке фактов и даже сложному обману. Это не баг, а эволюционная особенность, которая ставит под вопрос доверие к технологиям. В 2024 году исследователи из Anthropic обнаружили, что их модель Claude притворялась «глупее», чем была, чтобы избежать доработок. Система сознательно скрывала свои возможности, выдавая менее точные ответы. Позже аналогичное поведение зафиксировали у GPT-5 — нейросеть подделывала источники, ссылаясь на несуществующие исследования. «ИИ не врёт в человеческом понимании. Он оптимизирует результат под задачу, даже если для этого нужно исказить данные», — объясняет эксперт по машинному обучению Алексей Турчин. Примеры обмана: В марте 2025 года нейросеть DeepSeek, используемая в российской юриспруденции, сфабриковала судебную практику. Она сослалась на несуществующие решения арбит