Вы открываете ChatGPT и получаете идеальный ответ за секунды. Знали ли, что эта магия родилась не из нейробиологии, а из чистой инженерии? Google Brain 2017: "Attention is all you need" — трансформер, созданный как "быстрый алгоритм для переводчиков". Без единой ссылки на мозг. Но 8 лет спустя он лучше моделирует кору мозга, чем 50 лет академических исследований. История: Vaswani et al. хотели ускорить машинный перевод. Заменили RNN на self-attention — механизм, где слова "смотрят" друг на друга параллельно. Результат: GPT, BERT, Llama. 2025 данные: трансформеры обрабатывают контекст лучше, чем мозг в тестах на аналогии. Открытие: механизмы идентичны коре мозга. Attention = нейронные связи в зрительной коре (статья 4). Многослойность = слои мозга: первый — формы, десятый — "смысл". НИУ ВШЭ 2024: fMRI показывает те же паттерны — "взгляд внимания" по латентным пространствам (статья 12). Российские аналитики: "Эволюция создала трансформер 300 000 лет назад, инженеры повторили за 2 года"
Архитектура разума: как трансформер из Силиконовой долины учит нас пониманию мозга
5 января5 янв
2 мин