В мире искусственного интеллекта долгое время работало простое правило: чем больше модель, тем она умнее. Больше параметров, больше данных, больше вычислительных мощностей — больше результата. Но теперь всё меняется. Оказывается, для многих задач огромные модели — это перебор. И вот почему. Когда OpenAI запустила GPT-3 в 2020 году, это была самая большая языковая модель в истории. И она показала невероятные результаты: могла писать тексты, отвечать на вопросы, переводить языки — всё на уровне, который раньше казался фантастикой. OpenAI доказала простую вещь: чем больше модель, тем она умнее. Увеличь размер — получишь лучшее качество. И началась гонка. Все стали делать модели всё больше и больше. Как сказал Ноам Браун, научный сотрудник OpenAI, на конференции в октябре: "Невероятный прогресс в области ИИ за последние пять лет можно описать одним словом: масштаб" И это правда. Весь бум искусственного интеллекта последних лет строился на сверхкрупных моделях. GPT-4, Google Gemini, Claude
Малые языковые модели — когда больше не значит лучше
30 ноября 202530 ноя 2025
3 мин