Вы почти наверняка знаете о впечатляющей языковой модели GPT-4, лежащей в основе последних версий ChatGPT, а также Bing Chat. Однако семейство моделей ИИ OpenAI GPT — лишь одна из многих языковых моделей. AI Claude от Anthropic — это языковая модель с аналогичными возможностями по сравнению с GPT-3, но у нее есть одно ключевое преимущество перед совершенно новым GPT-4 Turbo: максимальная длина токена.
Длина токена — это объем информации, которую вы можете передать ИИ. Он описывает максимальную длину запроса, который вы можете дать сети, чтобы она могла преобразовать и создать выходные данные. В конце концов, именно это и делают эти модели — берут входные данные, интерпретируют их в соответствии с данными, полученными в результате их обучения, а затем выводят выведенную информацию, которая преобразуется в разумные выходные данные.
«Токены» — это фундаментальная единица текста, обрабатываемая моделью. Это может быть слово, часть слова, знак препинания или даже пробел. Оригинальный GPT-4 имел максимальную длину 8192 токена, что на момент выпуска считалось впечатляющим. Недавно выпущенный GPT-4 Turbo имеет максимальную длину токена 128 000 токенов, но даже это огромное число затмевается новым Claude 2.1 от Anthropic, который может принимать 200 000 токенов в одном запросе.
Если вам нужен ИИ для анализа технической документации, целых кодовых баз, огромных финансовых отчетов или длинных литературных произведений, вам понадобится гигантское контекстное окно, и чем больше, тем лучше. Контекстное окно — это объем данных, которые ИИ может обработать за один запрос, и для большинства целей оно является синонимом максимальной длины токена. Anthropic заявляет, что контекстное окно Claude на 200 000 токенов является первым в отрасли.
Наличие такого огромного контекстного окна, безусловно, имеет свои преимущества, но есть и недостатки. Основные преимущества заключаются в том, что это дает Claude огромный контекст при выполнении таких задач, как суммирование длинных документов, ответы на вопросы об огромных фрагментах текста или создание кода, который вписывается в существующую кодовую базу. Однако это также значительно замедляет процесс.
Anthropic говорит, что «задачи, выполнение которых обычно требует нескольких часов человеческих усилий, могут занять у Claude несколько минут». Это удивительно, но «несколько минут» — это довольно долгое время для ожидания ответа ИИ по сравнению с конкурентами. Конечно, у его конкурентов контекстные окна гораздо меньше, но это компромисс.
Помимо гигантского контекстного окна, Claude 2.1 вдвое снизил частоту галлюцинаций. Антропик говорит, что модель с гораздо большей вероятностью возразит по теме («Я не уверен») вместо того, чтобы уверенно дать неправильный галлюцинаторный ответ. Компания также заявляет, что снизила количество ошибок понимания в 3-4 раза, радикально улучшив способность модели понимать и обобщать документы.
Кроме того, у Claude есть бета-функция, которая позволяет пользователям интегрировать модель с их собственными существующими процессами, продуктами и API. Это довольно интересная функция для Anthropic, поскольку она позволяет Claude использовать внешние инструменты для более сложных рассуждений, таких как использование калькулятора для сложных математических вычислений или поиск в базе данных информации, связанной с запросами пользователей. Это также позволяет пользователям использовать Claude в качестве рекомендательной или поисковой системы.
Anthropic заявляет, что инструмент в настоящее время находится на ранней стадии разработки, и это вполне справедливо. Если вы хотите попробовать Claude, ищите его здесь.