Назвать ChatGPT, хитом - это сильно преуменьшить.
По состоянию на декабрь ChatGPT насчитывал более 100 миллионов ежемесячных активных пользователей. Он привлек большое внимание СМИ и породил бесчисленное количество мемов в социальных сетях. С его помощью были написаны сотни электронных книг в магазине Kindle компании Amazon. И ему приписывают соавторство как минимум в одной научной работе.
Но OpenAI, будучи бизнесом, хотя и с ограниченной прибылью, должна была как-то монетизировать ChatGPT, чтобы инвесторы не забеспокоились. Компания сделала шаг в этом направлении, запустив в феврале премиум-сервис ChatGPT Plus. А сегодня компания сделала еще больший шаг, представив API, который позволит любому бизнесу встроить технологию ChatGPT в свои приложения, веб-сайты, продукты и услуги.
API всегда был планом. Это утверждает Грег Брокман, президент и председатель OpenAI (а также один из основателей). Он поговорил со мной вчера днем по видеосвязи в преддверии запуска API ChatGPT.
- "Нам требуется время, чтобы довести эти API до определенного уровня качества", - сказал Брокман. "Я думаю, что дело в том, чтобы удовлетворить спрос и масштаб".
Брокман говорит, что API ChatGPT работает на основе той же модели ИИ, которая лежит в основе дико популярного ChatGPT от OpenAI, получившего название "gpt-3.5-turbo". GPT-3.5 - это самая мощная модель генерации текста, которую OpenAI предлагает сегодня через свой набор API; название "турбо" относится к оптимизированной, более отзывчивой версии GPT-3.5, которую OpenAI тихо тестирует для ChatGPT.
По цене $0,002 за 1000 токенов, что составляет около 750 слов, Брокман утверждает, что API может управлять целым рядом возможностей, включая "нечатовые" приложения. Snap, Quizlet, Instacart и Shopify являются одними из первых пользователей.
Первоначальной мотивацией разработки gpt-3.5-turbo могло быть сокращение гигантских вычислительных затрат ChatGPT. Генеральный директор OpenAI Сэм Альтман однажды назвал расходы ChatGPT "непомерными", оценив их в несколько центов на каждый чат. (При более чем миллионе пользователей это, предположительно, быстро увеличивается).
Но Брокман говорит, что gpt-3.5-turbo улучшен и в других отношениях.
- "Если вы создаете репетитора на базе ИИ, вы никогда не хотите, чтобы он просто давал ответ ученику. Вы хотите, чтобы он всегда объяснял и помогал им учиться - это пример того, какую систему вы должны построить с помощью API", - сказал Брокман. "Мы думаем, что это будет что-то, что сделает API гораздо более удобным и доступным".
API ChatGPT лежит в основе My AI, недавно анонсированного чат-бота Snap для подписчиков Snapchat+, и новой функции виртуального репетитора Q-Chat от Quizlet. Shopify использовал ChatGPT API для создания персонализированного помощника для рекомендаций по покупкам, а Instacart использовал его для создания Ask Instacart, предстоящего платного сервиса, который позволит клиентам Instacart спрашивать о продуктах питания и получать "подходящие для покупок" ответы, основанные на данных о товарах от розничных партнеров компании.
"Покупка продуктов может потребовать большой умственной нагрузки, так как на нее влияет множество факторов, таких как бюджет, здоровье и питание, личные вкусы, сезонность, кулинарные навыки, время подготовки и вдохновение для рецептов", - сказал мне по электронной почте главный архитектор Instacart Джей Джей Жуанг. "Что если бы ИИ мог взять на себя эту умственную нагрузку, и мы могли бы помочь домочадцам, которые обычно отвечают за покупки продуктов, планирование питания и приготовление еды на стол, и сделать покупки продуктов по-настоящему увлекательными? Система искусственного интеллекта Instacart, интегрированная с ChatGPT от OpenAI, позволит нам сделать именно это, и мы очень рады начать экспериментировать с тем, что возможно в приложении Instacart".
Однако те, кто внимательно следил за сагой о ChatGPT, возможно, задаются вопросом, созрел ли он для выпуска - и вполне обоснованно.
В самом начале пользователи могли побуждать ChatGPT отвечать на вопросы расистским и сексистским образом, что было отражением предвзятости данных, на которых ChatGPT изначально обучался. (Данные для обучения ChatGPT включают широкий спектр интернет-контента, а именно электронные книги, сообщения на Reddit и статьи Википедии). ChatGPT также изобретает факты, не раскрывая того, что он это делает - явление в ИИ, известное как галлюцинация.
ChatGPT - и подобные ему системы - также подвержены атакам на основе подсказок, или вредоносным подсказкам противника, которые заставляют их выполнять задачи, не входившие в их первоначальные цели. Целые сообщества на Reddit сформировались вокруг поиска способов "джейлбрейка" ChatGPT и обхода любых мер защиты, установленных OpenAI. В одном из менее оскорбительных примеров сотрудник стартапа Scale AI смог заставить ChatGPT разгласить информацию о своей внутренней технической работе.
Бренды, несомненно, не хотели бы оказаться под прицелом. Брокман уверен, что они не попадут. Почему? Одной из причин, по его словам, является постоянное совершенствование обратной стороны - в некоторых случаях за счет кенийских контрактных работников. Но Брокман подчеркнул новый (и явно менее спорный) подход, который OpenAI называет Chat Markup Language, или ChatML. ChatML передает текст в API ChatGPT в виде последовательности сообщений вместе с метаданными. Это противоположно стандартному ChatGPT, который потребляет необработанный текст, представленный в виде серии лексем (например, слово "фантастика" будет разбито на лексемы "фан", "тас" и "тик").
Например, задав вопрос "Какие есть интересные идеи для вечеринки в честь моего 30-летия?", разработчик может дополнить его дополнительным предложением типа "Вы - веселый разговорный чат-бот, созданный для помощи пользователям в решении вопросов, которые они задают. Вы должны отвечать правдиво и весело!" или "Вы - бот", прежде чем API ChatGPT обработает его. По словам Брокмана, эти инструкции помогают лучше адаптировать - и фильтровать - ответы модели ChatGPT.
"Мы переходим на API более высокого уровня. Если у вас есть более структурированный способ представления ввода в систему, где вы говорите: "это от разработчика" или "это от пользователя"... Я должен ожидать, что, как разработчик, вы действительно можете быть более устойчивы [используя ChatML] к такого рода атакам", - сказал Брокман.
Еще одно изменение, которое (надеемся) предотвратит непреднамеренное поведение ChatGPT, - более частое обновление модели. По словам Брокмана, с выходом gpt-3.5-turbo разработчики по умолчанию будут автоматически обновляться до последней стабильной модели OpenAI, начиная с gpt-3.5-turbo-0301 (выпущенной сегодня). Однако у разработчиков будет возможность оставить более старую модель, если они того пожелают, что может несколько свести на нет преимущество.
Независимо от того, решат ли они перейти на новейшую модель или нет, Брокман отмечает, что некоторые клиенты - в основном крупные предприятия с соответствующим большим бюджетом - получат более глубокий контроль над производительностью системы благодаря введению специальных тарифных планов. Впервые подробно описанные в документации, просочившейся в начале этого месяца, планы выделенных мощностей OpenAI, запущенные сегодня, позволяют клиентам платить за выделение вычислительной инфраструктуры для запуска модели OpenAI - например, gpt-3.5-turbo.
В дополнение к "полному контролю" над нагрузкой экземпляра - обычно вызовы OpenAI API происходят на общих вычислительных ресурсах - выделенные мощности дают клиентам возможность включить такие функции, как более длительные контекстные ограничения. Контекстные ограничения относятся к тексту, который модель рассматривает перед генерацией дополнительного текста; более длинные контекстные ограничения позволяют модели "запомнить" больше текста. Хотя более высокие контекстные ограничения, возможно, не решат всех проблем, связанных со смещением и токсичностью, они могут привести к тому, что модели типа gpt-3.5-turbo будут меньше галлюцинировать.
Брокман говорит, что клиенты с выделенными мощностями могут рассчитывать на модели gpt-3.5-turbo с контекстным окном до 16k, что означает, что они могут принимать в четыре раза больше токенов, чем стандартная модель ChatGPT. Это может позволить кому-то вставлять страницы и страницы налогового кодекса и получать разумные ответы от модели, что сегодня невозможно.
Брокман намекнул, что общий релиз будет в будущем, но не в ближайшее время.
- "Контекстные окна начинают увеличиваться, и отчасти причина того, что сейчас мы работаем только с выделенными мощностями, заключается в том, что на нашей стороне много компромиссов в отношении производительности", - сказал Брокман. "Возможно, со временем мы сможем предложить версию того же самого по требованию".
Учитывая растущее давление на OpenAI с целью получения прибыли после многомиллиардных инвестиций от Microsoft, это было бы не очень удивительно.
Присоединяйтесь к нам в социальных сетях и оставайтесь в курсе последних новостей, обновлений и интересных материалов!