Он думает не как человек, а как инопланетный картограф, рисующий карты в многомерном пространстве У Google только что вышел Gemini 3 – «самый разумный» ИИ компании, который в бенчмарках и живых демках всё чаще ведёт себя почти как человек: решает сложные задачи, пишет код, разбирается в мультимодальных сценариях. Но парадокс никуда не делся: та же модель, которая блестяще рассуждает о квантовой гравитации, внезапно обламывается на детском логическом ребусе. Почему эта смесь гениальности и “тупости” так устойчива? Свежая статья исследователей Google и CMU предлагает красивую (и пока эвристическую) подсказку: дело в том, какой именно “разум” формируется внутри LLM. Вместо человеческого опыта «мыслить ассоциациями», модели, похоже, строят геометрические когнитивные карты. · В классической картинке память – как таблица: факт A связан с фактами B, C, D. · В новой работе показывают, что глубокие последовательностные модели (включая трансформеров) предпочитают другой режим: они размещают вс