Найти в Дзене
🌟 Qwen3-Coder-Next: агентная MoE-модель в линейке Qwen3-Coder
Qwen3-Coder-Next — открытая MoE-модель на 80 млрд. общих и 3 млрд. активных параметров с контекстным окном в 256К токенов для агентных задач. Модель учили через agentic training на 800 тыс. задачах, созданных из GitHub PR в реальных Docker-контейнерах, где она получала прямой фидбек от среды. Это развило навыки планирования в ризонинге, использования инструментов и умение восстанавливаться после ошибок выполнения. На претрейне расширили поддержку языков с 92 до 370, затем SFT на траекториях агентов,...
4 часа назад
Главные новости ИИ и Машинного обучения
✔️ В Xcode завезли нативную поддержку Claude Agent SDK. Apple выпустила Xcode 26.3, и главное в нем - глубокая интеграция с Claude Agent SDK. Возможности Claude Code перенесли в среду разработки: агент сам управляет задачами, запускает субагентов и поддерживает плагины. Агент теперь видит не один открытый файл, а архитектуру всего проекта целиком и понимает, как связаны между собой SwiftUI, UIKit и Swift Data, сам составляет план действий и вносит правки. Claude научили пользоваться Xcode Previews и обращаться к документации Apple, если нужно разобраться в специфике API...
6 часов назад
🖥 Полезный совет, если Docker «жрёт» всю оперативку и ты не понимаешь, куда она делась
На macOS и Windows Docker Desktop работает через виртуалку. Контейнеры живут внутри этой VM, и если лимиты не настроены, Docker может разогнаться и занять гигабайты RAM, даже если ты думаешь, что запустил «всего пару сервисов». Что стоит сделать сразу: 1. Ограничь ресурсы Docker Зайди в настройки Docker Desktop → Resources и поставь явный лимит по RAM и CPU. Иначе VM будет забирать память «про запас». 2. Следи за контейнерами, а не только за хостом Проверь, что реально ест память: docker stats Очень часто виноват не Docker как таковой, а один контейнер с утечкой памяти...
6 часов назад
🚨 Теперь можно запускать 70B LLM на видеокарте с 4GB VRAM
AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”. Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти. Как это возможно? Вместо загрузки всей модели в память сразу, AirLLM: - подгружает модель по слоям - выполняет вычисления - освобождает память - переходит к следующему слою Фактически, это потоковая обработка модели. Более того, авторы показывают запуск Llama 3...
6 часов назад
🚀 Новое исследование Anthropic
ИИ ускоряет работу, но может замедлять рост навыков, если на него слишком сильно опираться во время обучения. Как проводили эксперимент Сделали рандомизированное исследование: - 52 разработчика - никто не знал Python-библиотеку Trio - всем дали небольшую задачу - половине разрешили пользоваться AI-помощником - половине — нет После выполнения задания всех протестировали без ИИ, чтобы проверить реальные знания. Результат Группа с ИИ показала результаты на ~17% хуже: - без ИИ: ~67% - с ИИ: ~50% Самая сильная просадка — в дебагинге, то есть поиске и исправлении ошибок...
7 часов назад
Если нравится — подпишитесь
Так вы не пропустите новые публикации этого канала