Найти в Дзене
SecureTechTalks

🧠🛡️ LLM помогает находить баги в смарт-контрактах

Смарт-контракты одна из самых сложных и рискованных частей Web3-экосистем. Их ошибки это не просто «падение системы», а потерянные миллионы долларов для пользователей. 🎯 Обычные статические анализаторы вроде Slither не справляются: они генерируют массу ложных срабатываний или пропускают «нестандартные» уязвимости, когда логика контракта уходит от шаблонов. Исследователи из Georgia Tech предложили интересную альтернативу: систему LLMBugScanner, в которой не одна LLM, а группа LLM, работают в связке и голосует за результаты. 🧪 Одиночные модели не панацея Если запустить одну модель (даже fine-tuned), она может сработать на одни типы ошибок, но провалиться на других: 🔹 Модели хорошо находят наборные, стандартные баги вроде integer overflow, но «слепнут» на контекст логики. 🔹 Результаты могут отличаться от прогона к прогону, потому что модель непоследовательна. 🔹 Fine-tuning помогает на одних данных, но портит результаты на других. Это типичная проблема: LLM понимают шаблоны, но н

🧠🛡️ LLM помогает находить баги в смарт-контрактах

Смарт-контракты одна из самых сложных и рискованных частей Web3-экосистем. Их ошибки это не просто «падение системы», а потерянные миллионы долларов для пользователей.

🎯 Обычные статические анализаторы вроде Slither не справляются: они генерируют массу ложных срабатываний или пропускают «нестандартные» уязвимости, когда логика контракта уходит от шаблонов.

Исследователи из Georgia Tech предложили интересную альтернативу: систему LLMBugScanner, в которой не одна LLM, а группа LLM, работают в связке и голосует за результаты.

🧪 Одиночные модели не панацея

Если запустить одну модель (даже fine-tuned), она может сработать на одни типы ошибок, но провалиться на других:

🔹 Модели хорошо находят наборные, стандартные баги вроде integer overflow, но «слепнут» на контекст логики.

🔹 Результаты могут отличаться от прогона к прогону, потому что модель непоследовательна.

🔹 Fine-tuning помогает на одних данных, но портит результаты на других.

Это типичная проблема: LLM понимают шаблоны, но не логику, семантику и нюансы исполнения кода.

🧩 LLMBugScanner

Чтобы устранить вышеупомянутые ограничения, реализована архитектура LLMBugScanner, которая делает две вещи:

1) 🎯 Адаптация к контексту смарт-контрактов

Модели проходят двухступенчатое fine-tuning-обучение:

На большом датасете Solidity-контрактов с отмеченными типами уязвимостей, чтобы понять общий «язык» и паттерны Ethereum-кода.

На маленьком датасете с CVE-контрактами, чтобы научиться опознавать конкретные баги и описывать их.

📌 В результате модели перестают постоянно неправиль­но классифицировать ошибки (например, путать проблемы доступа с арифметическими).

2) 🤝 Коллективное голосование моделей

Вместо того чтобы полагаться на одну «умную» сеть, LLMBugScanner запускает пять разных моделей, каждая анализирует контракт, а затем результаты объединяются через систему голосования:

🔹 Weighted Voting: сильные модели «весомее»

🔹 Priority Voting: решает конфликты по приоритету моделей

Итог: система ловит больше багов и с меньшим шумом, чем любая модель по отдельности.

📊  Тестирование

Команда проанализировала 108 реальных смарт-контрактов с известными уязвимостями из базы CVE. Результаты:

🔥 Ensemble-подход поднял точность обнаружения до ~60 % в топ-5 выводов, что на ~19 % выше, чем у одной лучшей модели.

🧠 Преимущества и ограничения

✅ Групповой разум работает лучше, чем одиночные модели.

✅ Снижается влияние случайных ошибок и индивидуальных слабостей моделей.

✅ Лучше охватываются разные типы уязвимостей.

Ограничения:

⚠️ Некоторые редкие классы ошибок (например, сложные ошибки доступа или логической структуры) всё ещё остаются трудными для обнаружения даже в ансамбле.

⚠️ Около 10 % выводов моделей всё ещё могут содержать «галлюцинации».

📌 Ссылка на исследование

🔗 https://arxiv.org/abs/2512.02069

Stay secure and read SecureTechTalks 📚

#CyberSec #Web3Security #SmartContractAudit #LLM #AIinSecurity #DeFi #Blockchain #SecureTechTalks #BugBounty