171 читали · 1 год назад
Что такое GPT2 и с чем его едят?
GPT2 (англ. Generative Pretrained Transformer – Генеративный предварительно обученный преобразователь) – это популярная модель Глубокого обучения (Deep Learning), позволяющая генерировать текст на основе предложения-тезиса. Относится к группе Трансформеров (Transformer). По мере того как модели-трансформеры становились лучше и приближались к созданию текста, который может сойти за человеческий текст, их обучающие наборы данных также выросли в размере. Например, базы TransformerXL, BERT-Base выросли...
06:44
1,0×
00:00/06:44
29,4 тыс смотрели · 3 года назад
Создаём gpt2
#импорт необходимых библиотек импортировать gpt_2_simple как gpt2 #загружаем модель сеанс = gpt2.start_tf_sess() #загружаем модель GPT-2 gpt2.load_gpt2 (сессия) #генерация текста сгенерированный_текст = gpt2.generate(sess, prefix='Меня зовут',                               длина=50,                               температура=0,7,                               топ_к=40,                               nsamples=3,                               размер партии = 3)...