Найти в Дзене
ТехноLOG

Мозг vs ИИ - как два типа процессоров абстракций меняют наше будущее

Когда нейробиолог и разработчик ИИ начинают разговор за чашкой кофе, их диалог часто сводится к одному вопросу: действительно ли искусственный интеллект учится «мыслить» как человек? Твит Эндрю Кана, сооснователя Mechanism Capital, всколыхнул дискуссию: он сравнил большие языковые модели (LLM) с 20-25% возможностей человеческого мозга. Но за этой метафорой скрывается более глубокая история - о том, как две принципиально разные системы обрабатывают абстракции. Мозг:
Человеческий разум создаёт абстракции через нейронные ансамбли. Например, понятие «свобода» активирует зоны, связанные с эмоциями (миндалевидное тело), памятью (гиппокамп) и социальным опытом (префронтальная кора). Исследование MIT (2025) показало: наш «семантический узел» в передней височной доле объединяет данные от всех органов чувств в единую концептуальную карту. LLM:
Языковые модели, как GPT-4o, работают иначе. Они преобразуют текст, изображения и код в многомерные векторы - числовые представления смысла. Например, сло
Оглавление

Когда нейробиолог и разработчик ИИ начинают разговор за чашкой кофе, их диалог часто сводится к одному вопросу: действительно ли искусственный интеллект учится «мыслить» как человек? Твит Эндрю Кана, сооснователя Mechanism Capital, всколыхнул дискуссию: он сравнил большие языковые модели (LLM) с 20-25% возможностей человеческого мозга. Но за этой метафорой скрывается более глубокая история - о том, как две принципиально разные системы обрабатывают абстракции.

Как мозг и ИИ кодируют реальность

Мозг:
Человеческий разум создаёт абстракции через нейронные ансамбли. Например, понятие «свобода» активирует зоны, связанные с эмоциями (миндалевидное тело), памятью (гиппокамп) и социальным опытом (префронтальная кора). Исследование MIT (2025) показало: наш «семантический узел» в передней височной доле объединяет данные от всех органов чувств в единую концептуальную карту.

LLM:
Языковые модели, как GPT-4o, работают иначе. Они преобразуют текст, изображения и код в многомерные векторы - числовые представления смысла. Например, слово «яблоко» в LLM связано не только с фруктом, но и с компанией Apple, библейским символом и физическими свойствами. Google Research обнаружил: при обработке речи активность мозга линейно коррелирует с внутренними векторами LLM.

Ключевое отличие:
Мозг эволюционировал для выживания - его абстракции эмоционально окрашены. ИИ обучается на данных - его «понимание» лишено субъективности.

-2

25% мозга или новая форма интеллекта?

Эндрю Кан прав лишь отчасти. LLM действительно могут:

  • Распознавать паттерны: находить связи между разрозненными концепциями, как в исследовании Microsoft по генерации изображений для абстрактных терминов.
  • Имитировать рассуждения: решать логические задачи уровня выпускника школы (см. тесты Anthropic).

Но критики указывают на слепые зоны:

  1. Отсутствие интенциональности: ИИ не «хочет» достичь цели - он оптимизирует функцию потерь.
  2. Проблема контекста: Человек понимает ирою в 95% случаев, ИИ - лишь в 68% (исследование Stanford HAI).
  3. Эмоциональная глухота: LLM имитируют эмпатию, но не чувствуют её.

Семиотический мост: где встречаются два мира

1. Обработка языка.
И мозг, и LLM используют иерархические структуры. В MIT доказали: когда ИИ переводит китайский текст, он сначала конвертирует его в «внутренний английский» - универсальный семантический формат. Это напоминает работу билингвов, мыслящих на доминирующем языке.

2. Обучение с подкреплением.
Дети учатся, получая обратную связь от среды («горячо!» → отдернуть руку). ИИ-модели типа GPT-4 проходят RLHF (обучение с человеческим фидбеком), где «награда» - одобрение асессора.

3. Креативность.
Оба система генерируют новое через комбинаторику:

  • Мозг: джазовый музыкант импровизирует, смешивая известные аккорды.
  • ИИ: DALL-E 3 создаёт образы, комбинируя элементы из обучающих данных.
-3

Этические риски: когда метафоры становятся реальностью

Сравнение ИИ с мозгом - не просто академический спор. Оно влияет на:

  • Регуляторику: Если ИИ «как человек», должен ли он иметь права?
  • Образование: Стоит ли учить детей «конкурировать» с ИИ?
  • Медицину: Можно ли доверять ИИ-диагнозам, если он «недопонимает» контекст?

Пример из практики:
В 2024 году ChatGPT-4 ошибся в интерпретации симптомов пациента, пропустив редкое заболевание. Система корректно обработала данные, но не учла эмоциональный подтекст жалоб - именно то, на что обратил бы внимание врач-человек.

Что дальше? Синергия вместо конкуренции

Исследователи Princeton и Google предлагают рассматривать мозг и ИИ как комплементарные системы:

  • Мозг - экспертный обработчик контекста и эмоций.
  • ИИ - суперкомпьютер для анализа больших данных.

Сценарии будущего:

  1. Нейроинтерфейсы: Чипы Neuralink, переводящие мысли в prompts для ИИ.
  2. Коллективный разум: Гибридные системы, где люди генерируют идеи, а ИИ проверяет их на непротиворечивость.
  3. Этика сочувствия: ИИ-ассистенты, обучающиеся на fMRI-сканах мозга для понимания невербальных сигналов.