Чем AI отличается от ML, а LLM — от нейросетей? Почему ошибочно называть любую языковую модель «чатом GPT» и что скрывается за новой аббревиатурой GEO?
Подготовили карту терминов генеративного AI: от общих понятий к конкретным моделям
Лестница понятий AI
От общего к частному – от AI к GEO
- AI/ИИ (artificial intelligence / искусственный интеллект). Общее название технологий, которые позволяют машинам имитировать «умное» поведение человека: учиться, анализировать, принимать решения, генерировать контент.
- ML (machine learning) / машинное обучение. Подраздел AI. Машина «обучается» на данных и потом делает прогнозы или принимает решения без прямого программирования. Пример: система прогнозирования спроса или рекомендательные алгоритмы «Озона» или YouTube.
- Generative AI / генеративный ИИ. Направление AI, которое не только анализирует данные, но и создаёт новые тексты, изображения, видео, код. Пример: ChatGPT пишет текст, MidJourney рисует картину, Sora создаёт видео.
- LLM (large language models) / большие языковые модели. Самый мощный и современный тип языковых моделей (часть группы генеративных ИИ). Обучены на огромных массивах данных и способны «понимать» и генерировать текст как человек. Примеры: ChatGPT, Claude, Gemini, LLaMA, ЯндексGPT.
- GEO (generative engine optimization). Новая область маркетинга. Оптимизация брендов и контента под генеративные поисковые системы (ChatGPT, Perplexity, Bing AI), чтобы бизнес упоминался в их ответах.
- AGI (artificial general intelligence) / Общий искусственный интеллект. Будущая (пока гипотетическая) стадия развития AI, когда модель сможет решать любые интеллектуальные задачи как человек.
Вложенность понятий
AI (искусственный интеллект) → ML (машинное обучение) → Generative AI (генеративный ИИ) → LLM (большие языковые модели) → GEO (оптимизация под генеративный поиск).
AI-модели (artificial intelligence models)
ИИ-/AI -модели и LLM – это не одно и то же.
Существует множество моделей искусственного интеллекта. Часть из них является машинным обучением (ML), часть не является. Почти все модели машинного обучения используют нейросети различной архитектуры.
Значимым, но не единственным семейством моделей является семейство LLM.
Нейросети
Правильно ли называть LLM-модели нейросетями?
Отчасти да. Все LLM – нейросети, но не все нейросети – LLM.
«Нейросеть» — это общий термин для моделей, вдохновлённых устройством мозга (узлы-«нейроны», связи-«веса»). Нейросети — универсальный инструмент в ML, но LLM — лишь одна ветвь, которая работает с текстами. Другие типы (CNN, RNN, GAN, Diffusion) применяются в изображениях, аудио, видео, науке и бизнесе.
Так что, когда речь идет о собирательном термине, описывающем GPT, DeepSeek, Gemini, точнее будет говорить «большие языковые модели».
Основные типы AI-моделей
LLM-модели
Правильно ли называть все LLM-модели чатом GPT?
Нет, не правильно. Не все подгузники – это Pampers, и не все генеративные модели – это GPT.
GPT (generative pre-trained transformer) — это продвинутая нейросетевая модель для генерации текста, разработанная компанией OpenAI.
Что означают термины в аббревиатуре GPT?
- Generative (генеративный). Модель умеет создавать новый текст, а не просто анализировать уже существующий. Главное отличие от «обычных» ML-моделей: они только классифицируют или предсказывают, а GPT генерирует содержимое.
- Pre-trained (предобученный). Модель сначала обучается на огромных массивах текста (книги, статьи, сайты), чтобы усвоить язык, грамматику, логику и знания. Потом её дополнительно обучают (fine-tune) на специализированных задачах или с помощью обратной связи от людей (RLHF — reinforcement learning with human feedback). Это позволяет быстро адаптировать GPT к конкретным целям без «обучения с нуля».
- Transformer (трансформер). Это архитектура нейросети, на которой построена модель. Главное новшество: механизм внимания (attention), который позволяет модели понимать контекст слова в предложении, учитывая связь с другими словами. Благодаря трансформерам LLM могут обрабатывать длинные тексты и сохранять смысл, а не «теряться» после пары предложений, как старые модели.
Итого: GPT = генеративная модель на архитектуре трансформеров, предварительно обученная на огромном массиве данных, а потом донастроенная под задачи.
Но есть много других LLM-моделей кроме GPT.
Таблица LLM-моделей (август 2025 года)
Карта LLM-моделей по годам создания, странам и компаниям
Примеры правильного употребления терминов генеративного AI
- AI / Искусственный интеллект. «Мы используем AI-решения, чтобы автоматизировать аналитику и ускорить обработку данных рекламных кампаний».
- ML / Машинное обучение. «На основе ML-алгоритмов мы строим прогнозы поведения клиентов и рекомендуем корректировать рекламные бюджеты по регионам».
- Нейросети. «Нейросети помогают нам анализировать изображения товаров и автоматически подбирать релевантные креативы для рекламы».
- LLM (Большие языковые модели). «Благодаря LLM, таким как GPT-5 или Claude, мы можем генерировать текстовые описания и FAQ, которые поисковые системы и AI-ассистенты подхватывают быстрее».
- Generative AI / Генеративный ИИ. «Мы применяем Generative AI для подготовки вариаций баннеров и текстов — это ускоряет A/B-тесты и снижает стоимость производства контента».
- GEO (generative engine optimization). «Сейчас важно не только SEO, но и GEO — оптимизация под генеративные поисковые системы (ChatGPT, Perplexity, Gemini). Мы поможем сделать так, чтобы ваш бренд появлялся в их ответах».
- RLHF (обучение с подкреплением с обратной связью человека). «Современные модели, такие как ChatGPT, обучены методом RLHF. Это значит, что они выдают ответы, максимально похожие на “человеческие” и полезные для пользователей».
- Perplexity. «Мы отслеживаем, как ваш бренд упоминается в Perplexity — это новый AI-поисковик, который всё чаще используют в бизнес-аналитике и при поиске поставщиков».
- Copilot. «Copilot от Microsoft ускоряет работу с кодом и документами. Мы используем его для повышения эффективности внутренних процессов при разработке типовых продуктов»
Сентябрь 2025
Автор: Роман Рублевский
Почему нам нужно верить
Мы – «Сумма технологий», агентство полного цикла из Екатеринбурга. С 2002 года занимаемся системным интернет-маркетингом.
Мы знаем, что вы заняты и у вас нет времени на поиск качественной информации и проведение экспериментов, поэтому приглашаем вас подписаться на нас в Дзене. Регулярно публикуем авторские статьи и кейсы. Никакой бесполезной информации.
Полезные ссылки: