Когда нейробиолог и разработчик ИИ начинают разговор за чашкой кофе, их диалог часто сводится к одному вопросу: действительно ли искусственный интеллект учится «мыслить» как человек? Твит Эндрю Кана, сооснователя Mechanism Capital, всколыхнул дискуссию: он сравнил большие языковые модели (LLM) с 20-25% возможностей человеческого мозга. Но за этой метафорой скрывается более глубокая история - о том, как две принципиально разные системы обрабатывают абстракции. Мозг:
Человеческий разум создаёт абстракции через нейронные ансамбли. Например, понятие «свобода» активирует зоны, связанные с эмоциями (миндалевидное тело), памятью (гиппокамп) и социальным опытом (префронтальная кора). Исследование MIT (2025) показало: наш «семантический узел» в передней височной доле объединяет данные от всех органов чувств в единую концептуальную карту. LLM:
Языковые модели, как GPT-4o, работают иначе. Они преобразуют текст, изображения и код в многомерные векторы - числовые представления смысла. Например, сло