Найти в Дзене
Поддержите автораПеревод на любую сумму
Рынок ИТ-труда 2026: охлаждение, ИИ-войны и смерть резюме
Свежее исследование от iTrend и ЦАМТ (при участии «Руссофт» и iSpring) подтверждает, что ИТ-рынок вошел в фазу жесткого «охлаждения» и рационализации. Вот главные тезисы 👇 📉 Макроэкономические факторы Впервые за 5 лет валовая добавленная стоимость ИТ-сектора в России сократилась — минус 7% за 2025 год (до 2,6 трлн руб.). Деньги стали дорогими, инвесторы — пугливыми. Компании больше не расширяют команды «авансом», фокусируясь только на окупаемости и эффективности. 🚫 Рынок работодателя: 19 человек на место Конкуренция за рабочие места достигла исторического рекорда с 2019 года...
6 часов назад
GLM-5: Open-source ответ Claude Opus 4.5
🤖 Z.ai вчера выкатили GLM-5 — флагманскую опенсорсную махину на 744 млрд параметров, заточенную под Agentic Engineering. Что под капотом: 1. Архитектура MoE: Из 744B параметров активны только 40B. Это позволяет модели быть умнее, без долгого инференса. 2. DeepSeek Sparse Attention (DSA): Впервые интегрировали эту фичу для снижения стоимости при сохранении контекста в 200K токенов. 3. RL-фреймворк «Slime»: Разработали свою асинхронную инфраструктуру для Reinforcement Learning. Результат — модель лучше понимает долгосрочные цели...
1 день назад
Прекрати гуглить документацию
! 🧠 Признайся, сколько у тебя сейчас вкладок в браузере с доками? Пять? Десять? Если ответ не "ноль", этот пост для тебя. Постоянное переключение Alt+Tab в браузер, чтобы в сотый раз посмотреть сигнатуру функции или название метода разрывает твой поток, убивает концентрацию и сливает драгоценную ментальную энергию впустую. Если у вас есть такая проблема, то познакомьтесь с Zeal. Это оффлайн-браузер документации. Бесплатный, опенсорсный, для Windows и Linux. Что он даёт? 🧠 Сохранение концентрации...
3 дня назад
Vibe Coding и смерть "писателей кода
" SemiAnalysis выкатили материал, в который описывается, что сейчас происходит в программировании и как на всё влияет Claude Code и переход к агентной модели. Вот выжимка из отчета: 1️⃣ CLI > IDE. Cursor — это прошлое Уже все используют автокомплит и чатики в IDE. Но Claude Code меняет парадигму. Изначально это не плагин. Это CLI-агент, который живет в терминале. Он не "дописывает" строчки. Он читает весь репозиторий, составляет план, выполняет задачи, запускает тесты и сам себя проверяет. И будущее именно за такими Terminal-Native Agents...
5 дней назад
Claude Opus 4.6 и GPT-5.3-Codex вышли в один день
🤖 Пока вы спали, гиганты индустрии решили устроить перестрелку релизами. Разбираем, что нового выпустили Anthropic и OpenAI . 1️⃣ Claude Opus 4.6: контекстный монстр Anthropic продолжает давить на "умную безопасность" и работу с огромными объемами данных. 🟣1M Token Context: Воти догнали Gemini. Вы можете скормить модели всю документацию проекта, пару книг по архитектуре и логи за неделю. Они заявляют, что решили проблему "Context Rot" (когда модель тупеет к концу контекста) — 76% точности поиска "иголки в стоге сена" против 18...
1 неделю назад
State of AI 2026
🔎 Вышел свежий «International AI Safety Report 2026» — cерьезный мета-анализ состояния индустрии на февраль 2026, составленный экспертами из 30 стран. Давайте посмотрим, что в нём есть интересного именно на тематику программирования: 1️⃣ Метрика "30 минут" В отчете вводится интересная метрика прогресса: длина задачи, которую агент может выполнить автономно. — Год назад: AI тянул задачи, на которые у человека уходило <10 минут. — Сейчас (2026): Агенты уверенно закрывают тикеты, требующие от человека ~30 минут работы...
1 неделю назад
Qwen3-Coder-Next: 80B мозгов с потреблением как у 3B
🤖 Китайцы выкатили очередную модельку для программирования — Qwen3-Coder-Next. Главная фишка — Extreme MoE (Mixture-of-Experts). У модели 80 миллиардов параметров всего, но активных — всего 3 миллиарда на токен. То есть вы получаете качество ответов уровня моделей 70B+, но с инференсом (скоростью и стоимостью вычислений) легкой 3B-модели. 👉 Что ещё интересного? 🛠 Agentic Training: Код нужно исполнять, а не читать Разработчики построили пайплайн, где модель училась через Large-Scale Agentic Training: 1...
1 неделю назад
Священная война бустингов
🥊 Если вы работаете со сложными табличными данными, то всё сводится к трём игрокам: XGBoost, LightGBM и CatBoost. Казалось бы, три реализуют одну и ту же математическую идею. И с точки зрения "чистой" точности при бесконечном времени на тюнинг гиперпараметров все три библиотеки дадут плюс-минус одинаковый результат...
1 неделю назад
Копипаст из ChatGPT делает из вас инвалида
Пруфы от Anthropic 📉 Ребята из Anthropic (создатели Claude) выкатили исследование, в котором проверяют, как использование AI-ассистентов влияет на skill formation — то есть на то, как ваш мозг обрастает новыми нейронными связями при изучении незнакомых технологий. 🧪 Сэтап эксперимента: Взяли 50+ разработчиков. Дали задачу на Python с использованием библиотеки Trio (асинхронщина, которую мало кто знает, чтобы исключить фактор "я это уже учил"). Одной группе дали AI, другой запретили. Потом провели жесткий квиз на понимание того, что они вообще накодили...
1 неделю назад
Как вайб-кодинг убивает Open Source
💀 Экономисты построили модель общего равновесия (general equilibrium model) рынка разработки ПО и пришли к выводу, что экономика Open Source тихо сворачивается в трубочку. 1️⃣ Разрыв цепочки вознаграждения Традиционный OSS держится на бартере: вы получаете код бесплатно, мейнтейнер получает внимание. Внимание конвертируется в репутацию, донаты, консалтинг или продажу Enterprise-версий. При Vibe Coding потребление растет, а monetizable engagement (посещение доков, звезды, issues) падает в ноль. AI абстрагирует вас от авторов инструментов. 2️⃣ Кейс Tailwind CSS В пейпере приводят убийственную статистику...
2 недели назад
🧑‍💻 Карпаты выбросил клавиатуру
Ну почти. Андрей Карпаты опять выкатил базированную рефлексию о том, как Claude и агенты перепахали его рабочий процесс за последние время. Вот его основные тезисы: 1️⃣ Смена парадигмы: 80/20 в обратную сторону Если недавно Карпаты писал 80% кода руками (или с автокомплитом). То сейчас отношение зеркально перевернулась: 80% пишет агент, 20% — его правки и «дошлифовка». Он буквально программирует на английском, диктуя LLM, что делать. Эго инженера страдает, но профит в скорости слишком велик, чтобы его игнорировать. 2️⃣ Эффект «тупого джуна» Забудьте про синтаксические ошибки. Модели косячат на концептуальном уровне...
2 недели назад
🤖 Kimi K2.5: Опенсорс отрастил глаза и собрал армию
Китайцы из Moonshot AI выкатила обнову для своей модельки — Kimi K2.5. Что получилось интересного? 1️⃣ Visual Agentic Intelligence Мы привыкли, что LLM читает код. K2.5 — смотрит на результат выполнения. Модель натренирована на 15T токенов (смесь текста и визуала). В чем киллер-фича? Visual Debugging. Ты просишь сделать UI. Модель пишет код, рендерит его, видит, что кнопка уехала на 5 пикселей или анимация дергается, и сама правит код, основываясь на визуальном инпуте. Можно скидывать скрины багов или диаграммы архитектуры, и модель будет понимать контекст лучше, чем раньше...
2 недели назад