Современные генеративные модели ИИ поражают своей способностью создавать удивительно правдоподобные тексты. Однако, действительно ли они что-то понимают? Ответ прост: нет. По крайней мере это утверждают ученые MIT в новом исследовании. Главный вопрос, который они поставили, заключается в том, способны ли большие языковые модели (LLM), лежащие в основе передовых чат-ботов, создавать точные внутренние модели реального мира. По результатам исследования, эти модели не справляются с подобной задачей. Чтобы проверить это, команда MIT разработала новые метрики, выходящие за рамки обычной проверки точности ответов. Они сосредоточились на детерминированных конечных автоматах (DFA) — задачах, требующих выполнения последовательных шагов по набору правил. Одним из тестов стало моделирование навигации по улицам Нью-Йорка. Модели ИИ показывали высокую точность в идеальных условиях, но их эффективность резко падала при добавлении переменных, таких как закрытые улицы или объезды. Я был удивлен, как бы
Новое исследование MIT подтверждает то, что мы и так подозревали — ИИ не понимает, о чем говорит
13 ноября 202413 ноя 2024
1
1 мин