Найти в Дзене
АРСИБ

ИИ НА СВОЕМ СЕРВЕРЕ: ПОЧЕМУ ЭТО MUST-HAVE ДЛЯ ИБ В 2025?

Представьте свой рабочий день как ИБ-специалиста в компании: утро начинается с подготовки отчета для руководства — нужно обновить политику по доступам, проверить соответствие нормам и провести мини-аудит процессов. Вы тратите часы на ручной сбор данных и формулировки, чтобы все было точно и корректно. А теперь добавьте облачный искусственный интеллект (далее – ИИ) вроде ChatGPT для ускорения: удобно генерировать шаблоны, но рискованно — конфиденциальные детали о внутренних процедурах уходят на внешние серверы, где их могут использовать для обучения модели, либо предоставить третьим лицам для маркетингового анализа или иных целей. С точки зрения информационной безопасности компании такое недопустимо. Именно здесь локальные большие языковые модели ИИ предлагают радикальное решение: они работают на вашем сервере или ПК, обрабатывая данные внутри компании без отправки наружу. Для специалиста ИБ это значит возможность автоматизировать рутину без риска компрометации. Например, вместо ручного

Представьте свой рабочий день как ИБ-специалиста в компании: утро начинается с подготовки отчета для руководства — нужно обновить политику по доступам, проверить соответствие нормам и провести мини-аудит процессов. Вы тратите часы на ручной сбор данных и формулировки, чтобы все было точно и корректно. А теперь добавьте облачный искусственный интеллект (далее – ИИ) вроде ChatGPT для ускорения: удобно генерировать шаблоны, но рискованно — конфиденциальные детали о внутренних процедурах уходят на внешние серверы, где их могут использовать для обучения модели, либо предоставить третьим лицам для маркетингового анализа или иных целей.

С точки зрения информационной безопасности компании такое недопустимо. Именно здесь локальные большие языковые модели ИИ предлагают радикальное решение: они работают на вашем сервере или ПК, обрабатывая данные внутри компании без отправки наружу. Для специалиста ИБ это значит возможность автоматизировать рутину без риска компрометации. Например, вместо ручного составления инструкций по управлению доступами вы вводите промпт в локальную модель, и она выдает готовый документ за минуты, сохраняя все данные в вашей сети.

Кроме того, вы можете кастомизировать модель под вашу инфраструктуру, дообучая на внутренних политиках или отчетах, без внешних рисков. Это не абстрактная технология, а инструмент, который усиливает вашу повседневную работу: от быстрого обновления стандартов до координации команды по безопасности.

Что такое локальные модели ИИ и почему они важны для ИБ?

Локальные большие языковые модели ИИ (обычно более известные под аббревиатурой LLM) — это LLM, такие как Mistral, GigaChat или Qwen, которые запускаются на локальном оборудовании: сервере, ПК или даже ноутбуке. В отличие от облачных сервисов, где данные обрабатываются на удаленных серверах (например, OpenAI), локальные модели хранят и анализируют информацию внутри вашей инфраструктуры. Эти модели можно дооснастить таким компонентом как RAG — Retrieval-Augmented Generation, который позволяет модели работать с вашими данными без их передачи наружу, добавляя контекст к запросам для более точных ответов.

Почему они так важны для кибербезопасности? Локальные модели минимизируют риски, обеспечивая конфиденциальность — данные не уходят за пределы компании.

С точки зрения эффективности, локальные ИИ ускоряют рутинные задачи. Например, с локальной моделью вы можете запустить промпт для проверки соответствия стандартам ISO 27001 или внутренним политикам ИБ без риска компрометации. Кроме того, по сравнению с облачными, они дешевле в долгосрочной перспективе (нет подписки) и масштабируемы — от ноутбука для тестов до кластера для использования в инфраструктуре организации. В итоге, локальные ИИ — это инструмент, который усиливает вашу команду, делая ИБ быстрее и безопаснее.

Шаги по развертыванию локального ИИ-помощника

Развертывание локальной модели ИИ — процесс, доступный даже без глубоких знаний в машинном обучении. Вот пошаговое руководство, основанное на практикуме из книги «Промпт-инжиниринг в информационной безопасности». Мы возьмем за основу простые инструменты, такие как Ollama или Hugging Face, чтобы запустить модель вроде Mistral или GigaChat на вашем оборудовании.

  • Шаг 1: Выбор модели. Начните с оценки ваших нужд. Для ИБ важны критерии: скорость, точность и безопасность. Рекомендуемые модели — Mistral (легкая, открытая) или GigaChat (адаптирована для русского языка). Mistral подходит для ноутбуков (4–8 ГБ RAM), GigaChat — для компьютеров с графическим ускорителем (GPU).
  • Шаг 2: Установка. Требования минимальны: 8–16 ГБ RAM для базовых моделей (для продвинутых — GPU). Можно использовать оболочку Ollama или LM Studio. По сути установка стандартная как для любой компьютерной программы.
  • Шаг 3: Интеграция в ИБ-задачи. После запуска настройте промпты для организационных задач, таких как управление политиками, аудитами или обучением. Например, для генерации политики безопасности: «Ты — эксперт по информационной безопасности. Сгенерируй шаблон политики по работе с конфиденциальными данными для компании в сфере финансов. Учти требования ФЗ-152: запрет передачи в облако, логирование доступа, санкции за нарушения».

Другой пример — создание чек-листа для внутреннего аудита: «Создай чек-лист для проверки соответствия ISO 27001, фокусируясь на организационных мерах: доступы, обучение, политики».

Добавьте в RAG организационно-распорядительные документы для контекста, чтобы ИИ ссылался на ваши внутренние требования. Это позволит автоматизировать рутину, сохраняя данные внутри компании.

  • Шаг 4: Тестирование. Тестируйте на реальных задачах: генерация инструкций по онбордингу новых сотрудников («Составь план адаптации ИБ-специалиста: обучение, доступы, политики») или анализ организационных рисков («Оцени риски утечек в HR-процессах и предложи меры защиты»). Если ошибки — вернитесь к выбору модели или «дообучите» на внутренних шаблонах.

Более подробную информацию по выбору моделей, установке и шаблонам промптов можно получить из книги автора: «Промпт-инжиниринг в информационной безопасности».

Буктрейлер книги: https://rutube.ru/video/c738d193753013545a21ee46f774d383/

Ссылка на страницу книги: https://ridero.ru/books/prompt-inzhiniring_v_informacionnoi_bezopasnosti/

Ссылка на канал автора посвященный ИИ: https://t.me/AICorpSecurity

Сведения об авторе: Саматов Константин Михайлович, член Правления Ассоциации руководителей служб информационной безопасности

-2

Мы в ВК: https://vk.com/vkaciso

Наш сайт: aciso.ru

Ставьте лайк и подписывайтесь на нашу страницу в АРСИБ Яндекс.Дзен и будьте в курсе актуальной информации в сфере информационной безопасности!