Как большие языковые модели (LLM) меняют рынок автозапчастей
Автор: Болховский Дмитрий, Aftermarket-DATA©.
AI/ИИ – трансформация компаний, LLM-агенты, аналитика
Тг канал «ИИ-Стратег» https://t.me/s/BolkhovskyInsight
За что ритейл всегда получал свою розничную премию?
За сервисную функцию по подбору артикулов и обслуживание последней мили. С учётом развития современной логистики, последняя миля – давно не проблема. А вот подбор артикулов – этот бастион ручного труда, держится до сих пор.
Почему он не пал до сих пор, и как ИИ готовится к решающему штурму, обсуждаем в данной статье.
Новость плохая
С точки зрения бизнес-процесса, эксперт-подборщик – это просто интерфейс обмена данными между тремя системами:
1. клиент (автовладелец)
2. каталог запчастей
3. поставщик
При стыковке этих систем возникают проблемы «перевода» и «навигации».
Например, клиенту нужны передние амортизаторы. А в каталоге надо искать «амортизатор передний [левый]» и «амортизатор передний [правый]».
Или нужен «сайлентблок». Но некоторые детали находятся в составе неразборных узлов, и в OE-каталоге нет отдельного номера сайлентблока. Поэтому, сначала надо искать рычаг. А уже потом, по этому OE-номеру, выходить на артикул сайлентблока у aftermarket–производителей.
Понять по путаным объяснениям клиента, что тому нужно – это проблемы перевода. А где это искать и в какой последовательности – навигации.
Кроме того, у большей части рынка отсутствует полноценный доступ к оригинальным каталогам. А сейчас –такого доступа нет и у бывших официальных дилеров.
Но специалист знает, в каком каталоге искать артикул, и как подключиться к нему в условиях санкций. Тесть, эксперт – это такой своеобразный прокси-поисковик.
И, наконец, опыт, сын ошибок трудных…
Например, при заказе задних амортизаторов для Skoda Octavia A7 легко перепутать артикул для многорычажки (OE VAG: 5Q0513029FB) и балки (OE VAG: 5Q0513049FC). Для корректного подбора надо внимательно смотреть дополнительные параметры автомобиля.
Однако, есть кейсы, когда даже VIN и контроль модификаций не помогают. Например, ШРУС для Renault Logan по VIN подобрать не получится: надо знать число шлицов (21/22/23), которые считают вручную.
И если квалификация хирурга определяется кладбищем пациентов, то квалификация эксперта - количеством накопленных неликвидов на складе. И, как следствие, полученных эмпирическим путём знаний о нюансах подбора запчастей.
Поэтому бизнесу ещё какое-то время придётся мириться с необходимостью наличия в штате мудреца, знающего о количестве шлицов на шрусе Logan. Этот обладатель сакральных знаний на проф-сленге называется подборщиком.
Это — плохая новость.
Новость хорошая
Для доработок 1С вам больше не нужен программист. Достаточно описать задачу словами — дальше работает вайбкодинг.
ИИ научился писать код, впитав 15 лет опыта айтишных форумов: баги, костыли и «плохие, но рабочие» решения.
Три года назад вайбкодинга ещё не существовало. А сегодня, крупнейшие IT-корпорации экономят миллиарды на том, что более 30% кода уже пишет ИИ
А при чём здесь, подбор запчастей? Да, при том, что эксперт-подборщик, по сути, делает то же самое, что и программист — переводит человеческий язык в формальный.
Разница лишь в том, что программист переводил бизнес-требования в компьютерный код, а подборщик переводит вариативный запрос клиента в точный артикул.
Обе компетенции основаны на формализации неструктурированной информации и применении накопленного опыта для решения типовых задач. И если ИИ уже справляется с первым, вопрос времени — когда он освоит второе.
Ключевой вывод для рынка автозапчастей: сакральная цитадель ручного подбора скоро рухнет!
ПодбИИратор ©
Для обучения LLM- модели по подбору запчастей есть всё необходимое: миллионы обработанных VIN запросов, данные из CRM –чатов, история рекламаций, техническая документация производителей, автомобильные форумы
Как процедура подбора, выглядит с точки зрения ИИ– автоматизации:
· Эксперт получает данные автомобиля у клиента – переводит в формат каталога
· ИИ сканирует техпаспорт (Computer Vision) + выделяет параметры автомобиля (LLM)
· Эксперт переводит описание запчасти с языка клиента на язык каталога
· LLM выделяет список запчастей и пожелания (сроки, цена)
· Выбирает подходящий каталог – находит узел –может выбрать элемент на схеме – получает артикул/OE номер
· ИИ: RAG (генерация ответа LLM на основе источников) + Computer Vision
· Делает поиск по артикулу в базах поставщиков == API (не ИИ)
· Оплата – заказ – доставка == стандартный eCom процесс (не ИИ)
· Рекламации (ошибка подбора, гарантия и тд)
· ИИ: транскрипция + LLM (понять суть проблемы и принять решение)
Вишенка на торте. Сегодня LLM уже способны анализировать техническую документацию, понимать рисунки и схемы.
Дело за малым, осталось этот самый ПодбИИратор © реализовать
Очумелые ручки
Для тех, кто любит заглянуть под капот технологий, — рассказываю о нашем опыте запуска AI-консультанта автомобилиста: https://telegram.me/Auto_Oracle_Bot
Архитектура гибридная. В основе — VIN-запросы и открытая информация (форумы, статьи, пользовательский опыт).
Эксперт-подборщик подбирает масло и автохимию под конкретный автомобиль клиента по VIN. Эти ответы накапливаются и структурируются, что позволяет использовать их для обработки новых «товарных» запросов. Алгоритм выделяет ключевые параметры автомобиля и подбирает релевантные позиции из каталога.
Далее LLM формирует технически корректный и человеко-понятный ответ. Здесь модель не креативит — она работает как редактор, собирая ответ из фактов.
Пример запроса: «Какое масло в Фокус 2 1.6 2010 года?». Ответ системы:
✨ для Ford Focus 2 (2004–2011) 1.6 л, бензин
· Моторное масло: объём 4.1 л
· Периодичность замены: каждые 8–10 тыс. км
· Спецификации: Ford WSS-M2C913-C (SAE 5W-30), Ford WSS-M2C948-B (SAE 5W-20)
Второй тип данных — DIY-вопросы, переписка из CRM и публичные материалы. Для подготовки базы знаний, сырой текст очищаем, разбиваем на смысловые фрагменты (чанки) и приводим к формату «вопрос–ответ». В результате получаем два набора данных: один — для обучения LoRA-адаптера (он задаёт стиль и логику диалога), второй — базу знаний для RAG.
LoRA можно сравнить с чип-тюнингом: базовая модель остаётся «заводской», меняется только стиль ответов — в нашем случае под формат «советы бывалых».
RAG — это умный поиск с пересказом. Вместо набора ссылок система находит релевантные фрагменты во внутренней базе и передаёт их LLM как контекст.
Без RAG даже мощная нейронка отвечает путает спецификации, использует устаревшие данные и плохо кастомизируется. RAG снимает эту проблему — нейросеть перестаёт креативить и работает как прикладной эксперт, собирая ответы из проверенных источников. Механика простая: поиск релевантных фрагментов, передача их в контекст LLM и сборка цельного ответа.
Пример ответа RAG:
✨ для подготовки дизельного автомобиля к зиме
• Используйте присадку: Суперантигель XXX с диспергатором −45 °C (добавлять в бак перед заправкой зимним ДТ)
• Защита от запотевания стёкол: Антизапотеватель YYY
• Комплексная подготовка включает защиту топливной системы, обслуживание системы охлаждения, установку зимних шин и обработку стёкол
В обоих сценариях — товарном и DIY — система подбирает решения по спецификациям и выдаёт пользователю структурированный ответ с техническими данными, полезными подсказками и ссылками на товарные карточки.
Таким образом, ручной подбор — это последний дорогой артефакт розницы. LLM + RAG превращают его в масштабируемый сервис без потери качества. Победят те, кто первыми превратит накопленные знания в топливо для нейросетей.
>>> Ищем партнёров для развития технологии https://telegram.me/Auto_Oracle_Bot
Я Дмитрий Болховский, Aftermarket-DATA©.
25 лет в IT и автобизнесе, делаю ИИ-трансформацию компаний.
• Аудит, процессов, ИИ-пилоты, проектный офис SCRUM/BPMN
• Автоматизация NPD
• Предиктивная аналитика спроса
• Оптимизация логистики и запасов
• Документооборот: распознавание, конвертация в XML, привязка платежей
• ИИ-секретарь: чат-боты для коммутации и подбора запчастей