В четверг OpenAI объявил, что обучили ИИ языковой модели. Они использовали большой набор данных для обучения и показали, что полученная в результате модель была полезна для последующих задач, где данных для обучения мало. Их модель может создавать реалистично выглядящий текст, но набор данных и код моделей они будут держать в секрете. Языковые модели присваивают вероятности последовательностям слов. Обычно они выражают эту вероятность как произведение вероятностей каждого слова, обусловленного его предшественниками. В качестве альтернативы можно обучить модель языка в обратном направлении, предсказывая каждое предыдущее слово с учетом его преемников. После обучения модели обычно ее либо 1) используют для генерации текста путем итеративного декодирования слева направо, либо 2) тонко настраивают для какой-либо последующей учебной задачи под наблюдением. Обучение языковых моделей больших нейронных сетей и их применение для решения последующих задач стало всеохватывающим яв
