Найти в Дзене
СберПро

Урок 1. Как устроены большие языковые модели

Большие языковые модели уже стали рабочим инструментом для бизнеса. Их используют для автоматизации процессов, аналитики, маркетинга и клиентского сервиса. Но эффект от внедрения зависит не от самой технологии, а от того, насколько хорошо руководители понимают её возможности и ограничения. «AI на практике» — интенсив СберПро для руководителей, менеджеров и специалистов, которые хотят с помощью AI оптимизировать процессы, повысить эффективность команды и принимать более взвешенные решения. За 4 урока изучите принципы работы больших языковых моделей и промпт-инжиниринга, разберётесь в архитектуре, применении и теории развёртывания AI-агентов. В этом уроке разберёмся: Большие языковые модели (Large Language Model, LLM) — это тип генеративного искусственного интеллекта, обученный на огромных массивах текстовых данных. Благодаря этому они могут генерировать связный текст, анализировать информацию и помогать в решении интеллектуальных задач. Сегодня LLM — это уже не эксперимент и не техноло
Оглавление

Большие языковые модели уже стали рабочим инструментом для бизнеса. Их используют для автоматизации процессов, аналитики, маркетинга и клиентского сервиса. Но эффект от внедрения зависит не от самой технологии, а от того, насколько хорошо руководители понимают её возможности и ограничения.

«AI на практике» — интенсив СберПро для руководителей, менеджеров и специалистов, которые хотят с помощью AI оптимизировать процессы, повысить эффективность команды и принимать более взвешенные решения. За 4 урока изучите принципы работы больших языковых моделей и промпт-инжиниринга, разберётесь в архитектуре, применении и теории развёртывания AI-агентов.

В этом уроке разберёмся:

  • зачем бизнесу большие языковые модели;
  • что LLM реально умеют;
  • как они «понимают» язык;
  • какие ограничения важно учитывать на практике.

Зачем бизнесу большие языковые модели

Большие языковые модели (Large Language Model, LLM) — это тип генеративного искусственного интеллекта, обученный на огромных массивах текстовых данных. Благодаря этому они могут генерировать связный текст, анализировать информацию и помогать в решении интеллектуальных задач.

Сегодня LLM — это уже не эксперимент и не технологическая экзотика. Это инструмент, который напрямую влияет на эффективность и конкурентоспособность компаний.

По данным исследований, бизнес использует LLM для следующих задач:

  • автоматизации рутинных задач — 67%;
  • решения маркетинговых задач — 60%;
  • подготовки аналитических отчётов и прогнозов — 40%.

Ряд экспертов считает, что наиболее перспективные области применения языковых моделей на сегодня:

  • автоматизация клиентского сервиса (чаты, анализ отзывов);
  • генерация и суммаризация контента (презентации, отчёты);
  • извлечение данных и анализ документов.

В среднем внедрение LLM позволяет экономить до 620 человеко-часов в год. Но автоматическая экономия времени ещё не означает автоматический рост эффективности.

❓ Проверьте интуицию
В крупной консалтинговой компании аналитики тратят значительную часть рабочего времени на подготовку типовых справок: собирают данные из открытых источников, оформляют стандартные презентации и обновляют регулярные отчёты для клиентов. Руководство внедряет LLM-инструмент, который автоматизирует сбор информации и подготовку черновиков материалов.
Правда ли, что качество работы аналитиков повысится?
Ответ — ниже.

Разбор ситуации
Правда — если ✅
Компания не просто внедрила AI-инструмент, а пересмотрела модель работы аналитиков: сократила объём формальных отчётов, обновила KPI и сделала акцент на качестве выводов, гипотезах и рекомендациях для клиентов. В этом случае освобождённое время действительно трансформируется в более высокую ценность для бизнеса.
Ложь — если ❌
AI использовали как «ускоритель старых процессов», не меняя требований к результату и системе оценки. Тогда аналитики продолжают производить те же объёмы типовых материалов, а выигрыш во времени не приводит к росту качества решений и быстро теряет эффект.
Вывод:
AI не меняет ценность работы сам по себе. Эффект возникает только тогда, когда автоматизация сопровождается пересмотром процессов, системы оценки и ожиданий от роли сотрудников. Без управленческих изменений технология лишь ускоряет старые модели работы, не повышая качества решений.

Что умеют LLM

LLM — это «мозг» современных AI-ассистентов, таких как GigaChat. Они способны обрабатывать большие объёмы информации и решать широкий круг бизнес-задач.

1. Создание и обработка текстов

LLM помогают готовить деловые письма, черновики отчётов и презентаций, посты для соцсетей, а также сокращать длинные документы до ключевых тезисов.

2. Анализ и структурирование данных

Модели извлекают данные из неструктурированных текстов (например, реквизиты из договоров), классифицируют обращения клиентов и анализируют тональность отзывов.

3. Генерация кода

LLM могут написать простой скрипт для автоматизации задач, объяснить логику кода или помочь найти ошибку в программе.

4. Поддержка и коммуникация
Модели используются для ответов на частые вопросы клиентов, поиска информации во внутренних базах знаний и создания сценариев диалоговых ботов.

5. Креатив и мозговой штурм
LLM предлагают идеи для маркетинговых кампаний, варианты названий продуктов и сценарии обучающих материалов.

🧠 Остановитесь на минуту
Подумайте: какие повторяющиеся задачи в вашей работе или работе отдела можно было бы автоматизировать с помощью LLM, чтобы высвободить время для более важных решений?
Составьте список и обсудите его с коллегами или руководителем.

Какую пользу бизнес уже получает от LLM

Снижение затрат

По данным BCG, 54% компаний по всему миру уже сократили расходы с помощью генеративного AI — за счёт оптимизации процессов и более точных прогнозов.

Пример из практики

Крупный ретейлер внедрил AI для прогнозирования спроса. Это снизило списание скоропортящихся товаров на 2% и увеличило выручку на 1%.

Рост эффективности

AI ускоряет анализ данных и повышает качество управленческих решений.

Пример из практики

Телеком-провайдер автоматизировал техподдержку с помощью AI-ассистента. Скорость обработки обращений и удовлетворённость клиентов выросли в три раза.

Высвобождение интеллектуального ресурса

Рутинные задачи переходят к AI, а сотрудники концентрируются на стратегии и работе с клиентами.

Пример из практики

Логистическая компания внедрила чат-бота в HR-процессы. Нагрузка на HR-отдел снизилась на 40%, а явка кандидатов на собеседования выросла.

❓ Самопроверка
Руководитель поручил LLM подготовить краткую справку по новому закону, влияющему на бизнес. Модель выдала структурированный документ с пояснениями и цитатами.
Можно ли использовать этот документ для принятия стратегических решений?
Правильный ответ: LLM не является экспертом и не проверяет факты. Любые выводы модели требуют обязательной верификации специалистом.

Как LLM «понимают» язык

LLM не понимают язык и смыслы так, как человек. Их работа основана на математике и вероятностях. Модель анализирует огромные массивы текстов и выявляет закономерности: какие слова и фразы чаще всего встречаются рядом. На основе этого она предсказывает следующее слово и формирует связный текст.

Если LLM не понимает смысл, почему её ответы часто оказываются полезными?

Потому что структура человеческих знаний уже зашита в качественных текстах: книгах, статьях, документации. Модель воспроизводит эту структуру, даже не осознавая её смысла.

Как обучаются большие языковые модели

Обучение LLM проходит в несколько этапов:

1. Предобучение (pre-training)

Модель изучает петабайты текстов: книги, новости, научные статьи. Цель — сформировать базовое понимание структуры языка.

2. Дообучение (finetuning)

Модель решает задачи формата «вопрос — правильный ответ», созданные людьми. Это учит её следовать инструкциям и вести диалог.

3. Обучение с подкреплением (alignment)

Ответы модели оценивают люди, помогая ей выбирать наиболее полезные и корректные варианты.

К примеру, для обучения GigaChat использовалось около 7,5 петабайта данных — это сопоставимо с объёмом 50 Ленинских библиотек. Энергозатраты сравнимы с бесперебойным снабжением стадиона «Лужники» в течение четырёх месяцев.

❓ Проверим логику
Менеджер хочет повысить точность ответов публичного AI-ассистента и загружает в чат внутренние документы компании: отчёты, клиентскую базу, спецификации.
Это правильный шаг?
— Да, больше данных — выше точность.
— Нет, это рискованно и неэффективно.
Ответ ищите тут.

О том, какие ограничения нужно учитывать при работе с LLM читайте тут.

Резюме модуля

  • LLM работают на основе вероятностных моделей, а не понимания смыслов.
  • Они помогают снижать затраты, повышать эффективность и высвобождать время сотрудников.
  • Эффективное использование требует контроля рисков: галлюцинаций, предвзятости и утечек данных.

Пройти итоговый тест по итогам урока

В следующем уроке разберём промпт-инжиниринг: как формулировать запросы так, чтобы LLM становилась полноценным рабочим инструментом, а не источником случайных ответов.

Полезные материалы по теме урока для самостоятельного изучения
Эра оркестраторов: почему бизнесу пора переходить от простых моделей к AI-агентам
Будущее маркетинга: возврат к основам на фоне AI-трансформации
Трансформация FMCG-рынка: главные тренды в ретейле и влияние AI
Видео-подкаст «Цифра в деле». Эпизод «Агентный ИИ: будущее корпоративных решений и стратегий»
Свет в конце алгоритма. Как AI меняет российскую энергетику