Найти в Дзене
🌟 Qwen3-Coder-Next: агентная MoE-модель в линейке Qwen3-Coder
Qwen3-Coder-Next — открытая MoE-модель на 80 млрд. общих и 3 млрд. активных параметров с контекстным окном в 256К токенов для агентных задач. Модель учили через agentic training на 800 тыс. задачах, созданных из GitHub PR в реальных Docker-контейнерах, где она получала прямой фидбек от среды. Это развило навыки планирования в ризонинге, использования инструментов и умение восстанавливаться после ошибок выполнения. На претрейне расширили поддержку языков с 92 до 370, затем SFT на траекториях агентов,...
1 час назад
Главные новости ИИ и Машинного обучения
✔️ В Xcode завезли нативную поддержку Claude Agent SDK. Apple выпустила Xcode 26.3, и главное в нем - глубокая интеграция с Claude Agent SDK. Возможности Claude Code перенесли в среду разработки: агент сам управляет задачами, запускает субагентов и поддерживает плагины. Агент теперь видит не один открытый файл, а архитектуру всего проекта целиком и понимает, как связаны между собой SwiftUI, UIKit и Swift Data, сам составляет план действий и вносит правки. Claude научили пользоваться Xcode Previews и обращаться к документации Apple, если нужно разобраться в специфике API...
3 часа назад
🖥 Полезный совет, если Docker «жрёт» всю оперативку и ты не понимаешь, куда она делась
На macOS и Windows Docker Desktop работает через виртуалку. Контейнеры живут внутри этой VM, и если лимиты не настроены, Docker может разогнаться и занять гигабайты RAM, даже если ты думаешь, что запустил «всего пару сервисов». Что стоит сделать сразу: 1. Ограничь ресурсы Docker Зайди в настройки Docker Desktop → Resources и поставь явный лимит по RAM и CPU. Иначе VM будет забирать память «про запас». 2. Следи за контейнерами, а не только за хостом Проверь, что реально ест память: docker stats Очень часто виноват не Docker как таковой, а один контейнер с утечкой памяти...
4 часа назад
🚨 Теперь можно запускать 70B LLM на видеокарте с 4GB VRAM
AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”. Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти. Как это возможно? Вместо загрузки всей модели в память сразу, AirLLM: - подгружает модель по слоям - выполняет вычисления - освобождает память - переходит к следующему слою Фактически, это потоковая обработка модели. Более того, авторы показывают запуск Llama 3...
4 часа назад
🚀 Новое исследование Anthropic
ИИ ускоряет работу, но может замедлять рост навыков, если на него слишком сильно опираться во время обучения. Как проводили эксперимент Сделали рандомизированное исследование: - 52 разработчика - никто не знал Python-библиотеку Trio - всем дали небольшую задачу - половине разрешили пользоваться AI-помощником - половине — нет После выполнения задания всех протестировали без ИИ, чтобы проверить реальные знания. Результат Группа с ИИ показала результаты на ~17% хуже: - без ИИ: ~67% - с ИИ: ~50% Самая сильная просадка — в дебагинге, то есть поиске и исправлении ошибок...
4 часа назад
⚡️ Появился любопытный open-source проект на стыке LLM и кибербезопасности - PentestAgent
Это система AI-агентов для black-box пентеста, где атака моделируется как оркестрация нескольких специализированных агентов, а не один «умный бот». Что он делает В автономном режиме система может прогонять целые пайплайны, имитируя работу red team: - цепочки разведки (recon) - анализ уязвимостей - попытки эксплуатации - формирование отчётов Инструменты подключены напрямую Агенты умеют работать с классическими пентест-утилитами: - Nmap - Metasploit - FFUF - SQLMap То есть это не «LLM рассуждает в вакууме», а связка LLM + реальные security-инструменты...
4 часа назад
🚀 Вышла новая модель для кодинга - Qwen3-Coder-Next (линейка Qwen
). Это open-weight LM, заточенная под кодинг-агентов и локальную разработку. Что внутри: 🤖 Около 800K проверяемых задач + окружения, где код можно реально исполнять, а не просто генерировать текст. 📈 Баланс эффективность / качество Модель с 80B общих параметров и ~3B активных показывает сильные результаты на SWE-Bench Pro при относительно экономичном инференсе. ✨ Экосистема инструментов Заявлена поддержка сценариев с агентами и дев-инструментами: OpenClaw, Qwen Code, Claude Code, веб-разработка, работа через браузер, Cline и т...
5 часов назад
🔥 Xcode получила мощный апдейт - Apple добавила в IDE настоящее agentic-программирование
Теперь это уже не просто «ИИ-подсказки», а почти автономный напарник внутри среды разработки. Что это значит для вайбкодинга: • Xcode 26.3 теперь глубоко интегрирована с агентными SDK от Anthropic (Claude) и OpenAI (Codex). Если раньше ИИ работал по принципу «запрос → ответ», то теперь он может самостоятельно выполнять длинные цепочки задач прямо внутри IDE. • ИИ дали «глаза и уши» проекта: доступ к документации, структуре файлов, настройкам проекта и — самое сочное — к Previews...
5 часов назад
🚀 Tencent мощно заходит в тему context learning
Вышел open-source бенчмарк CL-bench - и это не просто очередной датасет, а попытка сдвинуть фокус всей индустрии. Tencent HY совместно с Fudan University выпустили новую работу: “CL-bench: A Benchmark for Context Learning” - системный бенчмарк для оценки того, *насколько модели реально умеют думать в контексте*, а не просто вспоминать выученное. Это первый ресерч-релиз команды Vinces Yao после его перехода в Tencent - и по амбициям видно, что ребята метят в фундаментальные изменения. Сегодня большинство...
1 день назад
Ровно год назад Андрей Карпаты внес в инфополе термин, который сделал прокрастинацию частью инженерной методологии - ВАЙБКОДИНГ
То, что выглядело как шуточный твит про «код без кодинга», за год превратилось в новую норму: мы уже не пишем код - мы задаём настроение, а дальше пусть ИИ ловит поток. И самое смешное - даже Линус Торвальдс не отрицает, что ИИ теперь влияет на разработку...
1 день назад
✔️ Маленькие LLM вместе могут конкурировать с гигантскими моделями, если заставить их спорить правильно
Вместо одной огромной модели используется группа более простых моделей, которые критикуют друг друга и по кругу улучшают общий ответ. Идея из исследования *Mixture-of-Models: Unifying Heterogeneous Agents via N-Way Self-Evaluating Deliberation*. В чём суть Систему строят не как один “мозг”, а как команду моделей: 1. Несколько разных LLM дают первоначальные ответы 2. Они читают ответы друг друга 3. Критикуют, дорабатывают и предлагают улучшения 4. Лучшие идеи проходят дальше 5. Процесс идёт раундами,...
1 день назад
⚡️ GLM-OCR 0.9B - мощный OCR для сложных документов
Модель показывает SOTA-результаты в задачах понимания документов, оставаясь компактной и быстрой. Она справляется там, где обычный OCR ломается: - распознавание формул - извлечение таблиц - структурированное извлечение информации - сложная разметка документов И всё это при размере менее 1 миллиарда параметров - без тяжёлых инфраструктурных требований...
1 день назад