R1-Searcher++: как ИИ научится самому добывать и запоминать знания 📅 22 мая 2025 года команда учёных из Народного университета Китая и других институтов опубликовала исследование «R1-Searcher++: Incentivizing the Dynamic Knowledge Acquisition of LLMs via Reinforcement Learning» . Они создали новый способ, который учит ИИ думать как человек: сначала использовать свои знания, а затем обращаться к внешним источникам, только если нужно. Давайте разберёмся, как это работает и почему это круто! 🚀 🔍 Проблема, которую решали Большие языковые модели (LLMs), такие как ChatGPT или Qwen, хранят знания в своих параметрах, но: — часто галлюцинируют (придумывают факты), — не умеют "искать", если чего-то не знают, — и не запоминают информацию, которую "нашли" при помощи поиска. Большинство решений в виде RAG (Retrieval-Augmented Generation) добавляют поиск, но: — перегружают модель внешними документами, — не учат использовать собственные знания, — не развивают способность к самостоятельному обу