Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

🛠️ Новый уровень интеграции: как языковые модели стали полноценными инструментами командной строки

Мир искусственного интеллекта не стоит на месте. С каждым днём крупные языковые модели (LLM) становятся всё ближе к интеграции с привычными нам инструментами разработки. На днях разработчик Саймон Уиллиссон представил масштабное обновление своего популярного проекта LLM 0.26, которое открывает совершенно новые возможности для использования языковых моделей в качестве полноценных помощников непосредственно в терминале. 💡 Что изменилось и почему это важно? Самым ярким нововведением стала поддержка запуска инструментов (tools), которые теперь можно легко подключать через командную строку. Теперь LLM не просто выдаёт текстовые ответы, но и способна вызывать внешние инструменты и исполнять пользовательский код на Python. Это шаг, который максимально стирает границы между «говорящей головой» и полезным инструментом. Например, теперь вы можете: 🔧 Подключать инструменты через плагины.
Достаточно одной команды вроде llm install llm-tools-simpleeval, и модель сможет решать математические задач
Голографический терминал с «струящейся» зелёной кодовой лентой, к которому «проводами-трассами» подключён неоновый мозг-ИИ, детали-пазлы плагинов и эмблема Python — визуальный образ того, как LLM теперь запускает инструменты прямо из CLI.
Голографический терминал с «струящейся» зелёной кодовой лентой, к которому «проводами-трассами» подключён неоновый мозг-ИИ, детали-пазлы плагинов и эмблема Python — визуальный образ того, как LLM теперь запускает инструменты прямо из CLI.

Мир искусственного интеллекта не стоит на месте. С каждым днём крупные языковые модели (LLM) становятся всё ближе к интеграции с привычными нам инструментами разработки. На днях разработчик Саймон Уиллиссон представил масштабное обновление своего популярного проекта LLM 0.26, которое открывает совершенно новые возможности для использования языковых моделей в качестве полноценных помощников непосредственно в терминале.

💡 Что изменилось и почему это важно?

Самым ярким нововведением стала поддержка запуска инструментов (tools), которые теперь можно легко подключать через командную строку. Теперь LLM не просто выдаёт текстовые ответы, но и способна вызывать внешние инструменты и исполнять пользовательский код на Python. Это шаг, который максимально стирает границы между «говорящей головой» и полезным инструментом.

Например, теперь вы можете:

🔧 Подключать инструменты через плагины.
Достаточно одной команды вроде llm install llm-tools-simpleeval, и модель сможет решать математические задачи или даже выполнять JavaScript-код в песочнице.

🐍 Запускать Python-функции прямо в командной строке.
С помощью флага --functions можно передавать произвольные Python-функции, которые модель вызовет самостоятельно. Таким образом, вы мгновенно расширяете её возможности без предварительного создания плагинов.

🔄 Асинхронность.
Теперь инструменты доступны в асинхронном контексте, позволяя модели обрабатывать несколько запросов параллельно, что особенно полезно в высоконагруженных сценариях.

Работа с командной строкой. Источник: https://simonwillison.net/2025/May/27/llm-tools/
Работа с командной строкой. Источник: https://simonwillison.net/2025/May/27/llm-tools/

🚀 Почему это переворот в подходе к LLM?

Одна из самых распространённых претензий к большим языковым моделям — их слабость в точных вычислениях и взаимодействии с внешними системами. Даже такие мощные модели, как GPT-4 или Gemini, иногда путаются в простейших математических операциях. Но, подключив внешние инструменты, эта проблема решается мгновенно.

Например, запросив расчёт сложного выражения, модель теперь не пытается вычислить сама, а вызывает специальный инструмент:

llm -T simple_eval 'Calculate 1234 * 4346 / 32414 and square root it' --td

Модель сперва ошиблась с вызовом функции sqrt, затем поняла, как правильно сформулировать запрос, и выполнила вычисление с помощью Python-кода. Результат — чёткое и верное решение.

🗂️ Плагины и базы данных

Ещё одна перспективная область применения — запросы к базам данных. Модель способна самостоятельно генерировать SQL-запросы, предварительно ознакомившись со схемой базы. В демонстрации Уиллиссона модель запросила самую популярную репозиторию в Datasette, исправив по ходу ошибки:

  • 🔍 Первый запрос: неправильно использовала поле stars, которого не было в базе.
  • 📑 Второй шаг: автоматически запросила схему базы данных.
  • Третий шаг: исправила запрос на правильный и получила корректный ответ.

Такой сценарий — практически полноценный диалог человека с опытным аналитиком баз данных, только в роли аналитика выступает сам искусственный интеллект.

🌐 Открытость и удобство для разработчиков

Большое преимущество LLM 0.26 — открытость и простота создания собственных плагинов. Разработчик может написать небольшой Python-код и мгновенно подключить его как инструмент для модели. Теперь для расширения возможностей модели не обязательно писать сложные сервисы, достаточно короткой Python-функции.

Автор уже создал несколько полезных плагинов:

  • 📐 SimpleEval — вычисления простых математических выражений.
  • 📜 QuickJS — запуск JavaScript-кода в безопасном окружении.
  • 📊 SQLite и Datasette — запросы к локальным и удалённым базам данных.

🤖 Это уже агенты?

С технической стороны, то, что предлагает LLM 0.26, по сути является реализацией подхода «инструменты в цикле» (tools in a loop), который многие называют «агентами». Сам Уиллиссон осторожен с этим термином, так как он может вызвать ложные ассоциации у людей, далёких от разработки.

Однако суть ясна: теперь модели не просто генерируют текст, они становятся автономными ассистентами, способными самостоятельно принимать решения и использовать внешние ресурсы для достижения поставленных задач.

🔮 Что дальше?

Следующим шагом, очевидно, станет более глубокая интеграция с протоколом MCP (Model Context Protocol), который быстро становится стандартом для взаимодействия LLM с внешними сервисами. За последние недели этот протокол уже поддержали все крупные игроки, включая OpenAI, Anthropic и Mistral.

Таким образом, уже скоро мы сможем наблюдать ещё более тесное и естественное взаимодействие человека с машинами, стирая последние барьеры между кодом и естественным языком.

📝 Личное мнение и выводы автора статьи

Как разработчик, я вижу в этой новости не просто очередное обновление библиотеки, а реальный скачок в развитии взаимодействия между человеком и компьютером. Интеграция инструментов и моделей позволяет создавать системы, которые ещё вчера казались невозможными или слишком сложными в реализации.

На мой взгляд, подобные инструменты способны радикально изменить подходы к автоматизации и разработке программного обеспечения. Вместо написания кода мы всё чаще будем объяснять свои задачи моделям естественным языком и доверять им исполнение простых, рутинных операций.

Этот тренд уже необратим — и LLM 0.26 наглядно показывает, куда движется мир.

🔗 Полезные ссылки: