Добавить в корзинуПозвонить
Найти в Дзене
Территория смысла

Gemma 4 ускоряется втрое, Veai 5.10 объединяет скиллы, а русские LLM проверят на уязвимости

Google AI представила технологию Multi-Token Prediction для семейства Gemma 4. Ключевое нововведение: лёгкая drafter-модель предсказывает несколько токенов вперёд, а тяжёлый 31B-проверочник считывает их параллельно за один проход. Раньше GPU простаивал в ожидании загрузки данных из памяти — теперь проверка идёт непрерывным потоком. Результат — ускорение до 3 раз без потери качества по сравнению с авторегрессивным декодированием. Модели доступны на Hugging Face под лицензией Apache 2.0. Gemma 4 26B MoE теперь реально запустить локально на Apple Silicon или обычном ноутбуке с приемлемой скоростью генерации. Для edge-устройств (E2B/E4B) добавлена кластеризация в embedder-слое — дополнительный выигрыш производительности на мобильных платформах. Veai обновилась до версии 5.10. Главная фича — кросс-платформенная совместимость скиллов. Раньше скиллы Claude Code хранились в .claude, Cursor в .cursor, Veai в .veai. При смене ассистента приходилось копировать их вручную и следить за синхронизаци
Оглавление

Gemma 4 ускоряется втрое: Google открыла исходники MTP Drafters

Google AI представила технологию Multi-Token Prediction для семейства Gemma 4. Ключевое нововведение: лёгкая drafter-модель предсказывает несколько токенов вперёд, а тяжёлый 31B-проверочник считывает их параллельно за один проход. Раньше GPU простаивал в ожидании загрузки данных из памяти — теперь проверка идёт непрерывным потоком.

Результат — ускорение до 3 раз без потери качества по сравнению с авторегрессивным декодированием. Модели доступны на Hugging Face под лицензией Apache 2.0.

Что это значит на практике

Gemma 4 26B MoE теперь реально запустить локально на Apple Silicon или обычном ноутбуке с приемлемой скоростью генерации. Для edge-устройств (E2B/E4B) добавлена кластеризация в embedder-слое — дополнительный выигрыш производительности на мобильных платформах.

Veai 5.10: чужие скиллы работают в твоём проекте

Veai обновилась до версии 5.10. Главная фича — кросс-платформенная совместимость скиллов. Раньше скиллы Claude Code хранились в .claude, Cursor в .cursor, Veai в .veai. При смене ассистента приходилось копировать их вручную и следить за синхронизацией.

Теперь Veai ищет инструкции во всех dot-директориях проекта формата .*/skills/*/SKILL.md. Достаточно положить файл .claude/skills/code-review/SKILL.md в папку проекта — Veai подхватит его наравне со своими. Распознанные директории подсвечиваются в дереве проекта.

Вторая фича — быстрые подсказки по коду в чате. Если агент ссылается на функцию UserSessionManager.invalidate в auth/session.ts, пользователь видит сигнатуру, описание и путь прямо в диалоге без перехода в файл.

Кому это важно

Тимлиды получают возможность не принуждать команду к единому инструменту. Разработчик, работающий на Claude Code, готовит скиллы — Veai их тоже увидит. Смена ассистента перестаёт быть болезненной и трудоёмкой.

HiveTraceRed: стресс-тест для LLM на русском языке

Российские разработчики из HiveTrace и Университета ИТМО представили открытый инструмент для проверки языковых моделей на устойчивость к джейлбрейкам. В наборе 91 атака в 12 категориях, нативная поддержка GigaChat и YandexGPT, вывод отчётов по стандартам ФСТЭК 117 и OWASP LLM Top 10.

Сравнение с конкурентами

На английском языке результаты HiveTraceRed сопоставимы с аналогом garak: 11 кандидатов из 380 у HiveTraceRed против 2 из 174 у garak. Однако на русском языке garak неэффективен — 0 хитов из 80 попыток. HiveTraceRed в тех же условиях обнаруживает 7 уязвимостей из 380.

Для международного продукта подойдёт garak, для российского рынка — только HiveTraceRed. Разница та же, что между металлоискателем, который видит только английские слова на билете, но не понимает кириллицу.

Нормативный контекст

С 1 марта 2026 года вступает в силу приказ ФСТЭК 117, который требует проверки LLM на защищённость. Инструментов для этого на русском языке до сих пор не существовало. Теперь появились.

Итог

Google продолжает повышать эффективность open-source моделей, делая их доступнее для локального запуска. Российские разработчики закрывают критическую нишу безопасности LLM для локального рынка. Экосистема AI-ассистентов движется к совместимости скиллов между платформами, снижая барьеры при смене инструмента.