Найти в Дзене

Алгоритм OpenAI обучили 175 миллиардам параметров для генерации текста

Алгоритм GPT-3 основан всего на нескольких исходных параметров, будет использоваться для написания текста.

OpenAI
OpenAI

Разработчики искусственного интеллекта утверждают, что GPT-3 может отвечать на вопросы, после прочтения и анализа написанного текста и даже писать стихи. Кроме того, механизм сможет воспроизводить функции анаграммы и осуществления перевода написанного материала. Для обучения новой системе для данного OpenAI достаточно всего от десяти до ста примерев действия.

Каким образом проходило обучение OpenAI GPT-3

В новый механизм обучения GPT-3 вошли данные из таких электронных ресурсов как Crawl Common и Wikipedia. Кроме того, был взят кластер информации из книжного датасета WebTest и текстовые электронные страницы. Некоторые из представленных ресурсов были использованы в обучении предшественника данного искусственного интеллекта, под названием модели GPT-2.

GPT-3
GPT-3

Во время обучения искусственного интеллекта для модели GPT-3 нужно было выполнить чуть больше 40 задания разных видов. Перечень тестов мог начинаться от простого ответа на вопрос, и заканчиваться написанием «правильного» стиха или разгадки анаграммы. Кроме того, к каждому отдельному заданию алгоритму выдавалось несколько вариантов его решения. В результате точность обучения наиболее развитой модели OpenAI со 175 миллиардом параметров составила порядка шестидесяти процентов.

Напомним, недавно стало известно, что компания Sony поделилась с публикой планами на эксклюзивные игры для PlayStation 5. Разработчиками было заявлено, что все новые игры, которые выйдут для будущей игровой консоли нельзя будет запустить для предыдущих версиях девайса. Кроме того, недавно стало известно, что компания Zoom взялась за улучшение системы безопасности своего сервиса. Тем не менее, более качественный механизм сквозного шифрования получат только те пользователи, которые приобрели платную версию программы.

Оригинал статьи на нашем сайте: https://h-it.ru/algoritm-openai-obuchili-175-milliardam-parametrov-dlya-generatsii-teksta