Если подвести итог 2025 года в исследованиях ИИ, то он выглядит как конец эпохи «грубой силы». Масштабирование за счёт наращивания параметров перестало давать прежний эффект, и индустрия — от DeepMind и Meta до DeepSeek и китайских лабораторий — начала возвращаться к фундаментальным вопросам: как ИИ рассуждает, как он запоминает, как понимает пространство и как учится учиться. Главный сдвиг года — отказ от идеи «чем больше модель, тем умнее». Scaling Law по параметрам упёрся в убывающую отдачу, и фокус сместился с размера на когнитивные способности. В центре внимания оказались четыре направления: рассуждение, память, пространственный интеллект и мета‑обучение. По сути, индустрия занялась «латанием коротких досок», без которых путь к AGI невозможен. Самой заметной революцией стало Test-Time Compute. Модели научились «думать медленно»: тратить больше времени и вычислений на вывод, прежде чем дать ответ. Благодаря этому рассуждение перестало быть угадыванием по вероятностям и приблизилось
AGI после «гонки параметров»: о чём на самом деле говорили AI гиганты в 2025 году
13 января13 янв
1
2 мин