В июле 2025 года на arXiv появилась работа Питера Ковини и Сауро Су́ччи — “The wall confronting large language models”. Авторы утверждают: законы масштабирования ставят почти непреодолимую стену на пути развития больших языковых моделей (LLM). Математика здесь беспощадна: Проще говоря, нынешняя гонка за триллионами параметров напоминает бег на месте — дороже, громче, но не ближе к цели. Ключевая мысль авторов — сама сила LLM таит угрозу: Научные задачи требуют не просто «похожего ответа», а надёжности и воспроизводимости. LLM же выдают правдоподобные тексты, но не гарантируют истинность. Авторы отмечают: На мой взгляд, эта статья — важный «холодный душ» для индустрии. Вокруг AGI и LLM давно витает аура всесилия: модели уже пишут код, сдают экзамены, общаются как люди. Но реальная математика напоминает: рост параметров не равен росту интеллекта. Что же делать? Стена масштабирования — это не приговор, а предупреждение: бесконечное наращивание LLM приведёт к информационным катастрофам. Чт
Стена масштабирования: почему LLM не станут «научными оракулами»
4 сентября 20254 сен 2025
1
2 мин