В конце 2025 года Anthropic опубликовала серьёзную научную работу под впечатляющим названием «Emergent Introspective Awareness in Large Language Models» — «Возникающая интроспективная осознанность у больших языковых моделей». Эта работа вызвала бурную реакцию: заголовки СМИ утверждали, что «ИИ обрёл сознание» и «машины начали скрывать мысли». Однако суть исследования оказалась куда сложнее. Что именно изучали исследователи? Авторы проекта поставили вопрос, которого до сих пор избегали даже в крупных лабораториях: может ли искусственный интеллект наблюдать за собственным процессом мышления? Речь идёт не о чувствах или эмоциях, а о способности анализировать собственные вычисления. В рамках экспериментов модели предлагали задачи и просили не просто ответить, а дополнительно описать, каким образом она приходит к решению и насколько уверена в своём выборе. Так, нейросеть могла сообщать: «Использую стратегию перебора. Уверенность — 63 %. Возможно, стоит сменить метод». Этот подход получил н