Статья 2017 года, о которой я говорил (та самая прорывная, где ввели архитектуру Transformer), — это знаменитая работа под названием «Attention Is All You Need» (в переводе — «Внимание — всё, что нужно»). Ashish Vaswani
Noam Shazeer
Niki Parmar
Jakob Uszkoreit
Llion Jones
Aidan N. Gomez
Łukasz Kaiser
Illia Polosukhin
Именно в этой статье впервые описана архитектура Transformer, которая полностью отказалась от рекуррентных слоёв (RNN/LSTM) и свёрток, оставив только механизмы внимания (attention). Это и стало фундаментом для всех современных больших моделей: GPT, BERT, Claude, Grok, Llama, Gemini и т.д. Если коротко — без этой статьи 2017 года не было бы ChatGPT в 2022-м и всего того, что мы видим сейчас в 2026-м. По сути статья изменила представление о ИИ и как и философия Иммануила Канта изменила вектор человеческой истории