Появление WormGPT: новый этап в использовании больших языковых моделей киберпреступниками
В марте 2023 года мир кибербезопасности всколыхнула новость о создании WormGPT — языковой модели без цензуры, специально разработанной для облегчения вредоносных действий. Этот инструмент, основанный на открытой модели GPT-J от EleutherAI, быстро привлек внимание как специалистов, так и злоумышленников, демонстрируя новый уровень угроз со стороны AI-управляемых кибератак.
История и особенности WormGPT
WormGPT был анонсирован в марте 2023 года и вышел в публичный доступ в июне того же года. Его разработчик — некто под псевдонимом «Last» — ставил задачу создания LLM, свободной от традиционных мер цензуры, характерных для основных языковых моделей.
- Модель основана на GPT-J с открытым исходным кодом, разработанной EleutherAI.
- Модель доступна по подписке, что свидетельствует о попытке монетизации внутри киберпреступной экосистемы.
- В августе 2023 года WormGPT был закрыт под давлением СМИ, однако это не остановило дальнейшее развитие аналогичных проектов.
Распространение и развитие нецензурированных LLM
После закрытия WormGPT на специализированных форумах, таких как BreachForums, появились различные варианты этого инструмента. Они базируются не на совершенно новых архитектурах, а на адаптированных уже существующих LLM, которые модифицированы с помощью системных подсказок для обхода механизмов безопасности и генерации вредоносного контента.
Среди наиболее заметных вариантов выделяются:
- keanu-WormGPT, использующий модель Grok от xAI и структурно манипулирующий протоколами взаимодействия для создания вредоносного контента;
- xzin0vich-WormGPT, построенный на основе Mixstral AI с использованием двойных активных экспертов для анализа токенов и особыми механизмами внимания.
Тревожные тенденции и будущее подобных инструментов
Анализ новейших вариантов WormGPT показывает, что злоумышленники применяют комплексные подходы, включая оперативные манипуляции и тонкую настройку специализированных наборов данных, чтобы сделать свои инструменты не только эффективными, но и сложнообнаружимыми.
Это отражает масштабную трансформацию хакерской среды, где развивается рынок нецензурированных LLM, а также растёт спрос на специалистов в области искусственного интеллекта, способных создавать и улучшать такие модели с учётом конкретных нужд атак.
В результате киберпреступники получают возможность разрабатывать кастомизированные модели, которые усилят возможности LLM для проведения специализированных атак, повышая степень угроз.
Выводы и рекомендации
Распространение и развитие таких инструментов, как WormGPT и его модификаций, подчёркивает важность постоянной бдительности и усовершенствования защитных стратегий. В частности, необходимо:
- Развивать технологии мониторинга и анализа угроз, основанных на AI;
- Обучать специалистов по кибербезопасности работе с новейшими инструментами искусственного интеллекта;
- Обновлять законодательство и политику в области безопасности с учётом появления новых AI-угроз;
- Повышать осведомлённость организаций о рисках, связанных с не прошедшими цензуру LLM.
В современном цифровом мире искусственный интеллект становится двунаправленным мечом — с одной стороны, мощным инструментом развития, а с другой — серьёзным вызовом для безопасности. Появление WormGPT и схожих моделей — наглядное подтверждение необходимости комплексного и ответственного подхода к их использованию и предотвращению злоупотреблений.
Отчет получен из сервиса CTT Report Hub. Права на отчет принадлежат его владельцу.
Ознакомиться подробнее с отчетом можно по ссылке.
Оригинал публикации на сайте CISOCLUB: "WormGPT и эра не цензурируемых ИИ в кибератаках".
Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.
Подписывайтесь на нас: VK | Rutube | Telegram | Дзен | YouTube.