Добавить в корзинуПозвонить
Найти в Дзене
PM & AI

Архивы оживают или как мы перестали терять уроки прошлых проектов

Я столкнулся с тем, что мы каждые полгода наступаем на одни и те же грабли. Не потому что команда глупая или невнимательная, а потому что знания уходят вместе с людьми или просто тонут в море документов. В последнее время меня беспокоил один парадокс: мы тщательно фиксируем риски, пишем post-mortem, сохраняем артефакты, но в новом проекте всё равно действуем так, будто опыта у нас нет. Недавно я решил провести эксперимент: вместо того чтобы в очередной раз «собрать волю в кулак» и заставить команду перечитывать старые репозитории, я отдал этот архив нейросети и спросил: «Что мы обычно забываем?». Результат заставил меня пересмотреть подход к управлению знаниями. Проблема: Архив как кладбище данных
У любого, кто работает в IT больше трёх лет, есть папка «Проекты_архив» или доска в Confluence, которая превратилась в цифровое кладбище. Там лежат гениальные решения, описание факапов, ретроспективы. Но они мёртвые. Почему мы их не используем? Если делать по старинке — заставить аналитика в

Я столкнулся с тем, что мы каждые полгода наступаем на одни и те же грабли. Не потому что команда глупая или невнимательная, а потому что знания уходят вместе с людьми или просто тонут в море документов. В последнее время меня беспокоил один парадокс: мы тщательно фиксируем риски, пишем post-mortem, сохраняем артефакты, но в новом проекте всё равно действуем так, будто опыта у нас нет.

Недавно я решил провести эксперимент: вместо того чтобы в очередной раз «собрать волю в кулак» и заставить команду перечитывать старые репозитории, я отдал этот архив нейросети и спросил: «Что мы обычно забываем?». Результат заставил меня пересмотреть подход к управлению знаниями.

Проблема: Архив как кладбище данных

У любого, кто работает в IT больше трёх лет, есть папка «Проекты_архив» или доска в Confluence, которая превратилась в цифровое кладбище. Там лежат гениальные решения, описание факапов, ретроспективы. Но они мёртвые.

Почему мы их не используем? Если делать по старинке — заставить аналитика вычитывать километры текста, сопоставлять с текущими задачами и выписывать инсайты, — уйдёт неделя. Если делать формально — «давайте все вспомним, что было», — коллективная память подведёт. Проблема не в отсутствии данных, а в отсутствии доступа к ним в тот момент, когда они реально нужны.

Решение: Превращаем архив в базу знаний для ИИ

Мне пришла идея, которая сейчас кажется очевидной, но тогда я долго сомневался: сделать архив не статичным хранилищем, а динамическим контекстом для нейросети. По сути, создать локального бота, который знает всю историю нашей команды.

Вот как я это сделал (спойлер: это не больно и не требует команды дата-сайентистов):

  1. Сбор и очистка. Мы с аналитиком прошлись по папкам: выгрузили тексты из Confluence, Jira (описания задач, комментарии), старые письма, презентации и даже переписки в Telegram-чатах (анонимизировав лишнее).
  2. Структурирование. Я не стал загонять всё в единый шаблон. Вместо этого мы накидали тэги: «проблемакоммуникации», «ошибкаоценки», «техническийдолг», «успешныйрелиз».
  3. Инструмент. Мы использовали связку: векторная база данных (выбрали Chroma, потому что лёгкая) + LLM (через локальную GPT так как данные чувствительные). Залили туда все документы. Теперь у нас есть AI-ассистент, который помнит каждый наш косяк за последние два года.

Как это работает на практике

Недавно на старте нового проекта по разработке фичи для внутреннего портала мы начали обсуждать архитектуру. Я просто спросил у нашего «архивариуса»:

«Какие основные риски возникали при интеграции с легаси-системами в прошлых проектах?»

Нейросеть выдала выжимку из трёх разных ретроспектив:

— Проблема с правами доступа к БД (забыли запросить у смежников за неделю).

— Инцидент с таймаутами (не учли нагрузку).

— Конфликт версий библиотек.

Мы тут же добавили эти пункты в план эскалации и бэклог технических задач. Это заняло три минуты, а не три дня мозгового штурма, где кто-то мучительно вспоминал: «А было ли такое?».

Почему это прагматично

Мы не стали делать идеальную базу знаний с ручным заполнением карточек. Это утопия. В моменте у команды нет времени писать «красиво». Но у нас есть время 
сохранить как есть. А LLM отлично умеет находить паттерны в этом хаосе. Если раньше информация умирала, то теперь она работает как фоновый консультант, который не лезет в душу, но всегда под рукой.

Концептуальный вывод

Это не просто способ автоматизации поиска. Это смена парадигмы: мы перестаём быть рабами документов и становимся их повелителями. Раньше мы тратили ресурсы на 
ведение документации ради документации. Сейчас мы тратим ресурсы на ведение опыта.

Документация ради проверки (аудита) — это мертвый груз. Документация как корм для ИИ — это актив, который приносит дивиденды на каждом новом витке разработки. Архив перестал быть «было» и стал «будет учтено». В мире, где текучка кадров и скорость изменений растут, возможность спросить у цифрового двойника команды «А как мы тогда выкрутились?» — это не хайп, это инженерная необходимость.