Пока мы довольствуемся чисто языковыми LLM, их можно бесконечно масштабировать, полировать, снабжать всё новыми трюками Модели будут становиться всё более искусными при работе с текстыми – но не обязательно глубже в их понимании Да, антропоморфизация – опасная ловушка Проецировать человеческое сознание на калькулятор – плохая идея Но у нас нет роскоши отказаться от человеческого слова “понимание” применительно к Ml Мы вынуждены пользоваться этим несовершенным понятием, потому что именно оно сшивает вместе две задачи: как мозг делает из слов мир – и как заставить числа сделать что-то хотя бы функционально похожее На этом фоне новая работа Федоренко-Ивановой-Канвишер-Касто «Что значит понимать язык?» становится особенно интересной Это не очередная спекуляция про “сознание нейросетей”, а аккуратная нейронаучная рамка, опирающаяся на десятки фМРТ-исследований. Авторы показывают: языковая сеть мозга сама по себе не “понимает” мир Она строит лишь абстрактный “скелет смысла” Настояще
Пока мы довольствуемся чисто языковыми LLM, их можно бесконечно масштабировать, полировать, снабжать всё новыми трюками
28 ноября 202528 ноя 2025
1
2 мин