Найти в Дзене
hoster.by

LLM и промпты: как научить искусственный интеллект писать тексты?

Что такое LLM и что они умеют Искусственный интеллект можно тренировать разными способами и использовать для множества задач. Обычно в результате машинного обучения ИИ представляет собой модель, способную обрабатывать определенный пул запросов. Например, текстовую информацию, включая аудиальные команды. Понимать и интерпретировать человеческую речь, как правило, стремятся LLM (Large Language Model) — большие языковые модели. На объемных текстовых вводных они учатся погружаться в контекст, развивать ход мысли, давать точные ответы и, конечно же, самостоятельно генерировать контент. И за счет этого активно применяются во многих сферах. AI-ассистенты Уже чуть ли не лучшие друзья некоторых современных пользователей. Такие LLM умеют находить информацию, включать подходящую музыку, давать советы, составлять индивидуальные планы, шутить и всяческих развлекать, подстраиваясь под индивидуальные запросы. Чат-боты Используются для более конкретных задач. Как вариант, можно натаскать бота на

Что такое LLM и что они умеют Искусственный интеллект можно тренировать разными способами и использовать для множества задач. Обычно в результате машинного обучения ИИ представляет собой модель, способную обрабатывать определенный пул запросов. Например, текстовую информацию, включая аудиальные команды. Понимать и интерпретировать человеческую речь, как правило, стремятся LLM (Large Language Model) — большие языковые модели. На объемных текстовых вводных они учатся погружаться в контекст, развивать ход мысли, давать точные ответы и, конечно же, самостоятельно генерировать контент. И за счет этого активно применяются во многих сферах. AI-ассистенты Уже чуть ли не лучшие друзья некоторых современных пользователей. Такие LLM умеют находить информацию, включать подходящую музыку, давать советы, составлять индивидуальные планы, шутить и всяческих развлекать, подстраиваясь под индивидуальные запросы. Чат-боты Используются для более конкретных задач. Как вариант, можно натаскать бота на пользовательской документации, и он будет оперативно отвечать на распространенные вопросы клиентов. Например, о том, как активировать определенную функцию или исправить ошибку. Особенно удобно, когда не получается быстро всем ответить или запросы поступают в нерабочее время. Генерация контента Пока одни баялись, что ИИ всех заменит, а другие восторгались автоматизацией и ускорением создания контента, правда угнездилась где-то посередине. В зависимости от качества предоставленных вводных и эффективности обучения LLM способны и рассылку набросать, и программный код составить. Но, как и в других областях, к созданию контента с ИИ стоит относиться критически. И обязательно проверять результат на точность и здравый смысл. Перевод Пока ИИ учится понимать нас, мы учимся лучше понимать друг друга. Грамотно натренированные LLM способны быстро и качество переводить речь с одного языка на другой. И еще — текстовый запрос в программный код. Это существенно ускоряет коммуникацию и бизнес-процессы особенно в крупных проектах, работающих в разных регионах. Резюмирование Или же саммаризация — выделение главной информации в сотнях комментариях задачи, объемных документах или отчетах. Инструмент нативно интегрируется в бизнес-среду, например CRM, и автоматизирует процессы. Там, где сотруднику понадобилось бы полчаса или час на изучение вводных, машина по щелчку пальца погрузится в контекст и предоставит информацию в экспресс-формате. И всё это — лишь частные случаи. ИИ, обученный понимать и обрабатывать речь, можно интегрировать в различные платформы и сервисы, ускоряя и автоматизируя рутинные задачи. Архитектура и основные элементы LLM Текстовые модели могут отличаться структурно в зависимости от выполняемых задач и других факторов. Трансформер (Transformer) — базовая архитектура многих современных нейросетей для обработки естественного языка. Изучает последовательность и взаимосвязь между компонентами входящей информацией и выдает ответ. BERT (Bidirectional Encoder Representations from Transformers) — для лучшего понимания контекста читает сразу в двух направлениях: слева направо и наоборот. GPT (Generative Pre-trained Transformer) — учитывает контекст, предсказывает следующей элемент в тексте, например слово или ответ на вопрос. И в результате создает контент: посты, статьи, рекламные посылы и многое другое. T5 (Text-to-Text Transfer Transformer) — как следует из названия, все задачи воспринимает как преобразование текста в текст. При обучении модели важно правильно поставить цель, подобрать релевантные вводные и учесть множество других нюансов. Данные — подходы к их сбору и обработке могут отличаться в зависимости от конкретной модели и возможностей проекта. Однако чем точнее сведения и тоньше подход к их предоставлению, тем более смекалистого ИИ можно воспитать. Например, на внутренней технической документации можно вырастить AI-справочник, а на постах из Linkedin — ИИ-помощника для SMM. Цель обучения — напрямую связана с тем, как планируется использовать модель. Одна будет лучше справляться с переводом, другая с техническими подсказками, а третья — посоревнуется с людьми в писательском мастерстве. Параметры — множество внутренних критериев, которые помогают нейросети обрабатывать данные, выявлять закономерности и выдавать более точные ответы. В процессе обучения модель может их наращивать, улучшая свои показатели. Параметры LLM Хотя обычно ИИ выдает один ответ, на подкорке нейронов он может рассматривать множество вариантов, выбирая наиболее подходящий запросу. И именно параметры влияют на вероятность наличия определенных слов в результате. Размер модели Большие LLM могут насчитывать десятки и даже сотни миллиардов параметров. Считается, если в арсенале модели их от 30 миллиардов, то она получает сверхспособности и начинает находить взаимосвязи в окружении. Даже если это не было заложено в ее обучение. Модели поменьше обычно затачиваются под более узкие задачи. И могут потребовать больше тренировок. Веса Это коэффициенты, при помощи которых нейроны обрабатывают входящие данные и выдают определенный результат. Чем выше веса, тем более точные ответы выдает модель. Однако при этом увеличивается и ее объем. Температура Чем ниже, тем более предсказуема модель. Например, при нулевой температуре LLM выводит наиболее вероятный результат. А если поддать жару, она становится непредсказуемой и выдает наименее ожидаемые ответы. Токены и их количество Машины сами по себе не понимают человеческую речь. Поэтому для коммуникации с LLM используются токены — минимальная текстовая единица. Обычно один токен равен четырем английским или двум русским словам. AI имеет ограниченное количество токенов на входящие запросы и выходящий результат. Поэтому модели с открытым исходным кодом редко обрабатывают за раз больше 4-8К. Зато коммерческие — могут предоставлять около 100K токенов. Top-p и Top-k Предположим, у нас есть предложение, которое LLM должна закончить: «Зимой все наряжают ...». Больше всего по смыслу, конечно, подойдет елка в соответствующем склонении. Но при этом допустимы и другие слова: дом, интерьер, окна, офис. А с точки зрения AI возможны и крайне специфические варианты: табуретка, ковер, кот. Методы Top-p и Top-k помогают задать набор наиболее употребимых слов, сохранив при этом разнообразие. Top-p представляет сумму вероятностей подходящих значений. Например, если p=0,5, модель рассмотрит варианты, общая сумма вероятностей которых составляет 50%. Например, елка (30%) + дом (20%). Следовательно, чем меньше значение p, тем более стандартные варианты выбирает LLM. При этом рекомендуется не менять одновременно и температуру, и top-p, а выбирать что-то одно. Top-k предполагает выбор токена из числа подходящих вариантов. Например, если k=3, модель выберет наиболее вероятное слово из трех: елка (30%), дом (20%), интерьер (10%). Что такое промпт Чтобы LLM выдала некий ответ, пользователь должен попробовать у нее что-то узнать: попросить рекомендацию или дать оценку чему-либо. При этом даже модели одного профиля могут выдавать разные ответы в зависимости от того, каким образом и на каких данных их обучали. Например, начитавшись спорного контента, LLM-аккаунт в соцсетях может начать постить крайне специфические сообщения. А еще промпт сам по себе уже является элементом обучения. При коммуникации LLM учится угождать нашим ожиданиям и давать более точные ответы. Поэтому модели учитывают обратную связь, которая порой используется для уточнения запроса. Просто разовое обращение к ИИ-модели называется промптом. Такие запросы сами по себе не подразумевают уточнений и инструкций. А плавное или прямое подталкивание LLM к более точному ответу — это уже промпт-инжиниринг. И данный процесс может включать множество этапов: Создание первоначального промпта. Определение цели и формулирование чернового варианта. Тестирование и выявление возможных проблем. Запуск предварительного промпта на тестовых примерах и анализ результатов. Выбор техники промпта. Через тестирование выясняется, почему возникают неточности. Затем выбирается подходящий метод для улучшения результатов. Обновление изначального промпта. При обнаружении ряда проблем изменения применяются поэтапно. Доработки. Обновленный промпт тестируется на тех же примерах. Проверяется, решены ли выявленные ранее проблемы и не возникли ли новые. Затем цикл повторяется для постепенного улучшения результата. Техники промпта Промпт с нулевым примером Подразумевает, что модель уже вполне компетентна, чтобы самостоятельно отвечать на вопросы. ИИ не получает инструкций или примеров того, как должен реагировать на определенные запросы, и способен сразу ответить на запрос. Например, о классификации объектов или выдаче определения о том, что такое промпт. Запрос с несколькими примерами А чтобы нейросеть быстрее погрузилась в контекст, можно показать ей серию референсов. Например, предыдущие рассылки или посты в социальных сетях, схожие по теме и формату. Ролевой промпт На многие актуальные темы можно посмотреть с разных сторон: с точки зрения IT в частности или бизнеса в целом, относительно климатических тенденций, географии или экономики. Благодаря такому уточнению модель может выдать комментарий от лица эксперта или с неким акцентом, например техническим, экономическим или юридическим. Цепочка мыслей Чтобы браться за задачи посложнее модель должна выработать последовательность рассуждений. Это помогает ей лучше понимать речи и выстраивать алгоритм решений. Для наглядности проверим какой-нибудь популярный GPT-ресурс задачкой со следующими вводными. В нашем личном кабинете пользователь развернул 5 облачных серверов: для сайта, CRM и трех тестовых проектов. Спустя некоторое время он завершил пару тестов и удалил две машины для них. А затем запустил еще одну — для облачной СУБД. Но потом удалил еще один виртуальный сервер для тестов. А к этому времени сайт вымахал настолько, что его перенесли в частное облако. Сколько же виртуальных серверов осталось у пользователя в личном кабинете? Мы проверили этой задачей GPT-чат. Модель запуталась. Чтобы помочь ИИ правильно усвоить контекст, стоит поэтапно расписать все шаги, уточнив числа написанием словами и цифрами, а также объяснив все синонимы. Например, что облачный и виртуальный — это одно и тоже. Как и сервер с машиной. А вот частное облако — это уже другая история. Поэтому в задачке выше правильный ответ: 2. Цепочка с проверкой Модернизированная версия предыдущей. Всё то же самое — только модель учится не только проводить пошаговые ходы, но и проверять свои размышления. Например, в примере выше ИИ может перепутать серверы или сбиться на каком-то этапе. Но при этом всё равно проведет вычисления и поделится ходом рассуждений и выводами. Таким образом, будет проще определить, где была допущена ошибка и устранить ее. Цепочка с заметками Продолжаем учить модель не сбиваться с мысли. Когда становится слишком сложно, можно попросить ее делать заметки с аргументацией. Это повысит вероятность обнаружения неточности и как следствие — внесения последующего улучшения. Цепочка со специализированными знаниями Было бы наивным полагать, что все формулы и законы модель оперативно выведет сама. Поэтому если мы говорим о специализированных направлениях, скажем научных, разумно обучить ее на соответствующих материалах. Например, чтобы она учитывала законы физики, технологии программирования и другие подобные моменты. Контекстное обучение Уточнения помогают ИИ лучше понимать запросы. Например, вы можете подробнее рассказать о какой-то сфере, своем проекте или работе. А также пояснить неочевидные качественные показатели: о прибыли и расходах, оплатах, различных метриках и множестве других критериев. Галлюцинации ИИ и как они лечатся Модель может очень постараться ответить верно и даже процитировать источник, но при этом всё равно допустит ошибки или выдаст полную бессмыслицу. Такие отклонения от ожиданий называются галлюцинациями. И они происходят, когда модель пытается угадать, что мы от нее хотим, но опирается на некорректные данные. Отсюда и главный подвох: галлюцинация происходит при следовании заложенной логике и выявляется уже при смысловом анализе. То есть это не программный сбой, который легко заметить и исправить. Но к счастью, это лечится. Подробные вопросы. Корректные формулировки, детали, дополнительные примеры, просьба давать последовательный результат и проверять свои ответы — всё это поможет улучшить точность. Ориентировать ИИ на контекст. Зная больше информации о теме, модель может выдавать более корректные ответы. Рамки. Иногда полезно ограничивать ответ при помощи соответствующих тренировок и датасета. Конечно, это не для тех случаев, когда вы хотите развить в ней творческую жилку. Квантование LLM Очень большую книгу, скажем на тысячи полторы страниц, да еще и с мудреным авторским стилем сложнее продать и издателю, и читателю. Особенно если речь о произведении начинающего автора, которому еще только предстоит создать себе имя. И, конечно, такой объем также дороже облагородить в красивый переплет и выпустить солидным тиражом. Но дело становится проще, когда книга в несколько раз сокращается. С большими моделями история та же. Красноречивая LLM с 70 млрд параметров потребует сотни Гб дискового пространства и серьезного запаса мощности. Обычно для таких моделей используются 64- и 32-битные числа с плавающей запятой (FP64 и FP32 соответственно). Квантование — это хитрый прием, который позволяет представить объемные LLM при помощи 16-битных (FP16) и даже 8-битных целых чисел (INT8). За счет этого модель становится более компактной и экономной, но может потерять часть словарного запаса. Поэтому при квантовании важно не только уменьшить объем LLM и ускорить генерацию результата, но и сохранить максимум точности в расчетах. Инфраструктура для LLM Обучение и запуск языковой модели на проде требует больших и сложных вычислений. Поэтому для работы с LLM используются инфраструктурные решения с GPU. Профессиональные графические процессоры обладают множеством ядер, а потому обеспечивают высокую производительность для параллельных вычислений. При этом можно рассмотреть разные варианты размещения. Для проектов, которым важна гибкость в работе с LLM, больше подойдет облако. На виртуальных серверах с GPU можно в любой момент менять параметры конфигурации и оплачивать только используемые ресурсы. Если же вы предпочитаете классику и наличие гарантированного запаса мощности только для ваших задач, то выбирайте выделенные физические серверы с GPU. Нужно реализовать гибридный сценарий? Не вопрос. Используйте облако для обучения LLM, а уже готовую модель размещайте на выделенном сервере. Задайтесь вопросом, где хранить материалы для обучения модели? S3-хранилище поможет эффективно работать с любым объемом неструктурированных данных. А облачные СУБД помогут использовать MySQL, PostgreSQL и MongoDB максимально гибко, надежно и в соответствии с требованиями законодательства о защите информации. ]]>