Найти в Дзене
Ватоматизация
Сегодя благодаря своей случайной опечатке придумал новый термин: Ватоматизация — это когда автоматизация делается не ради KPI, не ради “цифровой трансформации”, а ради священной цели: освободить человеку время, чтобы он мог спокойно катать вату без чувства вины.​ Раньше всё было проще: чтобы покатать вату, нужно было сначала героически настрадаться — вручную залезть на сервер, найти место на диске, собрать дамп, уронить сервис, поднять сервис, повторить дважды (на всякий случай). Ватоматизация ломает этот порочный круг и предлагает новый: “однажды напрягся — потом расслабляйся по расписанию”...
3 месяца назад
🔥 KAG: Апгрейд для RAG, который заставляет нейросети думать, а не угадывать
Тизер: Ваш RAG-бот врёт, путает факты и галлюцинирует? KAG (Knowledge-Augmented Generation) — это следующий шаг. Разбираемся, как заставить LLM работать с фактами и связями, а не просто с "похожим текстом" (see the generated image above). Классический RAG (Retrieval-Augmented Generation) работает просто: запрос → поиск похожих кусков текста → скормить их нейросети . Это отлично работает для простых вопросов. Проблемы начинаются, когда нужно: RAG — это как студент, который быстро находит цитаты в учебнике, но не понимает их смысла...
4 месяца назад
🔥 Xiaomi MiMo-V2-Flash: 309B MoE монстр, который ЛЕТАЕТ!
73.4% SWE-Bench (лучше DeepSeek-V3 671B!). 309B параметров, 15B активных, 150 t/s, 256K контекст. Бесплатный Claude Sonnet 4.5 уровень — как запустить в Cursor? (see the generated image above) *** Xiaomi не шутит: MiMo-V2-Flash рвёт чарты 16 декабря 2025 Xiaomi сбросила MiMo-V2-Flash — MoE-гиганта с 309B общими параметрами, 15B активных. Не "ещё одна модель", а SOTA кодер 2025: Бенчмарки (реальные): - SWE-Bench Verified: 73.4% (DeepSeek-V3 671B: ~70%) - AIME 2025 (математика): 94.1% (топ-2 open-source)...
4 месяца назад
Как работает агент Cursor IDE — разбор магии под капотом (реверс инжиниринг)
WASM-токенизация, воркеры, гибридный RAG. Как Cursor летает на твоём ноутбуке и почему он быстрее VS Code с Copilot? (see the generated image above) Коротко: техно-разбор для тех, кто любит копаться в архитектуре. Cursor — не просто VS Code + ИИ Cursor — Electron-приложение (Chromium + Node.js), форк VS Code с фокусом на AI-агента. Когда показываю коллегам — все в шоке: "Вау!", "Ничего себе!". Это не автодополнение. Cursor балансирует локальную скорость (WASM, кэши) и серверную мощь (эмбеддинги, feature flags)...
4 месяца назад
🚀 Будущее LLM 2025: BitNet b1.58, MambaByte, BLT — конец эры Transformer?
Microsoft BitNet (-1,0,1 вместо 16-бит), Meta BLT (байты вместо токенов), MambaByte (500x быстрее). Зачем они убивают Transformer и как запустить на RTX 3090? Transformer мёртв? Почему все бегут от attention Transformer = вчера. 16-битные веса жрут VRAM, inference тормозит, обучение — месяцы на H100 кластерах. 2025 тренд: Linear альтернативы. Смотрим топ-3 убийц Transformer из твоего анализа: 1. BitNet b1.58 — Microsoft 1.58-bit LLM Llama-3-8B FP16: 16GB VRAM BitNet-3B: 2.3GB VRAM (10x меньше!) MMLU: 71% vs Llama-3B 68% Как работает: Вместо FP16 весов — ternary {-1, 0, +1}...
4 месяца назад
Через год разработчики без AI-агентов станут как программисты без IDE: Как я написал браузерный движок за вечер
Представь: ты просыпаешься, а твой сложнейший бэкенд уже написан. И это не сон. Ты больше не «машинистка» с вечно горящей Jira. Ты — **Архитектор Интеллекта**. Я прошел через ад разрабовского выгорания, собрал монструозную экосистему из Cursor + Qwen + собственного LLM прокси, ИИ чат-ботов и теперь в одиночку реализую проекты, которые раньше требовали целого отдела разрабов, месяцев или даже лет изчения всевозможной документации, библиотек и фреймворков. Пока ты скептически хмыкаешь, мои агенты уже дописывают следующий модуль...
4 месяца назад