Недавние разработки в области искусственного интеллекта показали, что нейросети могут не только решать задачи, но и осознавать свои ограничения. Исследователи из Калифорнийского университета в Сан-Диего и Университета Цинхуа предложили уникальный подход для повышения точности работы больших языковых моделей (LLM). Теперь они могут оценивать свою уверенность в ответах и, если требуется, обращаться за помощью для улучшения результатов. Что изменилось?
Ранее нейросети решали задачи, полагаясь исключительно на свои алгоритмы и данные. Но теперь, благодаря внедрению двухэтапного обучения, модели учатся использовать внешние инструменты для повышения точности. На первом этапе — "Дистилляция знаний" — LLM учится справляться с задачами при помощи внешних ресурсов, что помогает накапливать экспертные знания по теме. Во втором этапе, "Адаптация инструментов", языковая модель классифицирует задачи по сложности и принимает решение о том, с каким уровнем уверенности она может справиться самостоятел