В недавно опубликованной аналитической записке 40 исследователей из ведущих американских технологических компаний — OpenAI, Google DeepMind, xAI — призвали к углубленному изучению ИИ, работающего на основе «цепочек мыслей» (CoT). Метод, известный как «цепочка мыслей» (Chain of Thought, CoT), используемый в самых продвинутых больших языковых моделях, предполагает, что ИИ при решении сложных задач последовательно описывает ход своих рассуждений перед тем, как дать окончательный ответ. Как отметили специалисты, CoT позволяет заглянуть во внутреннюю работу ИИ и увидеть намерения модели нарушить правила или совершить ошибку. Тем не менее гарантий, что текущая степень прозрачности сохранится, нет, особенно по мере развития моделей. В зависимости от того, как они обучены, продвинутые модели, как указано в публикации, могут перестать описывать свою логику рассуждения или намеренно скрыть «цепочку мыслей», поняв, что за ними наблюдают. Чтобы обеспечить сохранение этой прозрачности, межкорпорати
Эксперты обеспокоены: ИИ может скрыть логику своих решений
17 июля 202517 июл 2025
26
1 мин