GPT-1 (Generative Pre-trained Transformer 1) – первая модель серии GPT, разработанная компанией OpenAI в 2018 году. Это была модель, которая заложила фундамент для дальнейшего развития технологий генеративного искусственного интеллекта, и на ней основываются все последующие версии, такие как GPT-2, GPT-3 и GPT-4. История GPT-1 начинается с идеи объединения лучших на тот момент достижений в области нейросетей и языковых моделей. До появления GPT-1 существовали другие подходы к обработке естественного языка, такие как рекуррентные нейронные сети (RNN), LSTM (Long Short-Term Memory) и CNN (сверточные нейронные сети), которые показали себя полезными для решения задач, связанных с языковыми данными. Однако они имели ограниченную способность к работе с длинными последовательностями текста и не могли достаточно эффективно обучаться на больших объемах данных. Решающим моментом стало изобретение механизма внимания (attention) и архитектуры трансформеров, представленных в статье Google "Attentio