В эпоху, когда глубокое обучение для многих свелось к строчке pip install torch, произошло событие почти антикультурное. На GitHub тихо и без фанфар завершили реализацию всех 30 фундаментальных работ, которые Илья Сутскевер когда-то назвал «90% всего, что реально важно в deep learning». Причём реализовали не на модных фреймворках, а на чистом NumPy — так, как это и должно работать под капотом. И это, на мой взгляд, куда важнее, чем очередной релиз «модели на триллион параметров». Речь идёт о репозитории
pageman/sutskever-30-implementations,
где каждая из 30 ключевых научных работ: 🧠 реализована вручную
🧠 разобрана построчно
🧠 снабжена визуализациями и пояснениями
🧠 запускается сразу, без датасетов и магии Это именно те работы, которые Сутскевер рекомендовал Джон Кармак — не как «почитать на досуге», а как инженерный минимум для понимания ИИ. От RNN и LSTM до Transformers, RAG и scaling laws — весь путь современного ML здесь разложен как на анатомическом столе. Самый частый вопрос: