Мир искусственного интеллекта не стоит на месте. С каждым днём крупные языковые модели (LLM) становятся всё ближе к интеграции с привычными нам инструментами разработки. На днях разработчик Саймон Уиллиссон представил масштабное обновление своего популярного проекта LLM 0.26, которое открывает совершенно новые возможности для использования языковых моделей в качестве полноценных помощников непосредственно в терминале.
💡 Что изменилось и почему это важно?
Самым ярким нововведением стала поддержка запуска инструментов (tools), которые теперь можно легко подключать через командную строку. Теперь LLM не просто выдаёт текстовые ответы, но и способна вызывать внешние инструменты и исполнять пользовательский код на Python. Это шаг, который максимально стирает границы между «говорящей головой» и полезным инструментом.
Например, теперь вы можете:
🔧 Подключать инструменты через плагины.
Достаточно одной команды вроде llm install llm-tools-simpleeval, и модель сможет решать математические задачи или даже выполнять JavaScript-код в песочнице.
🐍 Запускать Python-функции прямо в командной строке.
С помощью флага --functions можно передавать произвольные Python-функции, которые модель вызовет самостоятельно. Таким образом, вы мгновенно расширяете её возможности без предварительного создания плагинов.
🔄 Асинхронность.
Теперь инструменты доступны в асинхронном контексте, позволяя модели обрабатывать несколько запросов параллельно, что особенно полезно в высоконагруженных сценариях.
🚀 Почему это переворот в подходе к LLM?
Одна из самых распространённых претензий к большим языковым моделям — их слабость в точных вычислениях и взаимодействии с внешними системами. Даже такие мощные модели, как GPT-4 или Gemini, иногда путаются в простейших математических операциях. Но, подключив внешние инструменты, эта проблема решается мгновенно.
Например, запросив расчёт сложного выражения, модель теперь не пытается вычислить сама, а вызывает специальный инструмент:
llm -T simple_eval 'Calculate 1234 * 4346 / 32414 and square root it' --td
Модель сперва ошиблась с вызовом функции sqrt, затем поняла, как правильно сформулировать запрос, и выполнила вычисление с помощью Python-кода. Результат — чёткое и верное решение.
🗂️ Плагины и базы данных
Ещё одна перспективная область применения — запросы к базам данных. Модель способна самостоятельно генерировать SQL-запросы, предварительно ознакомившись со схемой базы. В демонстрации Уиллиссона модель запросила самую популярную репозиторию в Datasette, исправив по ходу ошибки:
- 🔍 Первый запрос: неправильно использовала поле stars, которого не было в базе.
- 📑 Второй шаг: автоматически запросила схему базы данных.
- ✅ Третий шаг: исправила запрос на правильный и получила корректный ответ.
Такой сценарий — практически полноценный диалог человека с опытным аналитиком баз данных, только в роли аналитика выступает сам искусственный интеллект.
🌐 Открытость и удобство для разработчиков
Большое преимущество LLM 0.26 — открытость и простота создания собственных плагинов. Разработчик может написать небольшой Python-код и мгновенно подключить его как инструмент для модели. Теперь для расширения возможностей модели не обязательно писать сложные сервисы, достаточно короткой Python-функции.
Автор уже создал несколько полезных плагинов:
- 📐 SimpleEval — вычисления простых математических выражений.
- 📜 QuickJS — запуск JavaScript-кода в безопасном окружении.
- 📊 SQLite и Datasette — запросы к локальным и удалённым базам данных.
🤖 Это уже агенты?
С технической стороны, то, что предлагает LLM 0.26, по сути является реализацией подхода «инструменты в цикле» (tools in a loop), который многие называют «агентами». Сам Уиллиссон осторожен с этим термином, так как он может вызвать ложные ассоциации у людей, далёких от разработки.
Однако суть ясна: теперь модели не просто генерируют текст, они становятся автономными ассистентами, способными самостоятельно принимать решения и использовать внешние ресурсы для достижения поставленных задач.
🔮 Что дальше?
Следующим шагом, очевидно, станет более глубокая интеграция с протоколом MCP (Model Context Protocol), который быстро становится стандартом для взаимодействия LLM с внешними сервисами. За последние недели этот протокол уже поддержали все крупные игроки, включая OpenAI, Anthropic и Mistral.
Таким образом, уже скоро мы сможем наблюдать ещё более тесное и естественное взаимодействие человека с машинами, стирая последние барьеры между кодом и естественным языком.
📝 Личное мнение и выводы автора статьи
Как разработчик, я вижу в этой новости не просто очередное обновление библиотеки, а реальный скачок в развитии взаимодействия между человеком и компьютером. Интеграция инструментов и моделей позволяет создавать системы, которые ещё вчера казались невозможными или слишком сложными в реализации.
На мой взгляд, подобные инструменты способны радикально изменить подходы к автоматизации и разработке программного обеспечения. Вместо написания кода мы всё чаще будем объяснять свои задачи моделям естественным языком и доверять им исполнение простых, рутинных операций.
Этот тренд уже необратим — и LLM 0.26 наглядно показывает, куда движется мир.
🔗 Полезные ссылки: