https://youtu.be/k2ZLQC8P7dc?si=f1udN7BIiLBUDBT_ TL&DR Это видео — эпизод подкаста Lightcone от Y Combinator, гостем которого стал Франсуа Шолле (создатель библиотеки Keras и бенчмарка ARC-AGI). Основная тема обсуждения — почему простого масштабирования текущих нейросетей (LLM) недостаточно для достижения сильного искусственного интеллекта (AGI) и какие новые подходы необходимы. Краткий бриф обсуждения: Новая парадигма (NDEA): Шолле представил свою новую исследовательскую лабораторию NDEA. Вместо классического глубокого обучения (параметрических моделей) они работают над символьным обучением. Цель — создавать компактные программы, которые описывают данные, что гораздо ближе к тому, как работает человеческий интеллект. Проблема масштабирования LLM: Гости обсуждали, что индустрия тратит миллиарды на обучение всё более крупных моделей, но это дает лишь количественный рост, а не качественный скачок в гибкости мышления. LLM хороши в интерполяции известных данных, но плохо справляются с абсо