Найти в Дзене
✔️ Google выпустили Nano Banana 2 - новую модель генерации изображений, ориентированную на реальное production-использование
Г Модель позволяет быстро генерировать и редактировать изображения, сохраняя уровень детализации, света и текстур, достаточный для коммерческих задач. Ключевые возможности: * точное следование сложным текстовым инструкциям * корректный текст внутри изображений * создание инфографики, диаграмм и визуального контента * сохранение внешнего вида персонажей и объектов между генерациями * поддержка разных форматов и разрешений Nano Banana 2 интегрирована в экосистему Google: * Gemini *...
14 часов назад
⚡️ Карпаты поделился наблюдением, которое хорошо описывает то, что сейчас происходит с разработкой
За последние пару месяцев программирование изменилось не постепенно, а резко. Раньше кодинг-агенты выглядели как интересный эксперимент - могли помочь с фрагментами кода, но не тянули реальные задачи. Сейчас ситуация другая: модели научились держать контекст, последовательно решать проблемы и доводить работу до конца. По сути, они получили главное качество инженера - упорство. Типичный сценарий сегодня выглядит так: ты ставишь задачу высокого уровня, агент подключается к серверу, настраивает окружение,...
23 часа назад
Айтишник научил своего пса вайбкодить игры
Для этого парень убедил Claude Code, что его спаниэль Момо — эксцентричный гейм-дизайнер. Момо рандомно набирал буквы вроде skfjhsd#$%. Claude считал это шифром «гения» и искал в нем инструкции. Пес кодит на клавиатуре с Raspberry Pi...
1 день назад
Liquid AI представила свою крупнейшую модель - LFM2-24B-A2B
🐘 - 24 млрд параметров всего - активны только 2,3 млрд на каждый токен - построена на гибридной, аппаратно-оптимизированной архитектуре LFM2 Модель сочетает быстрый и экономичный дизайн LFM2 с архитектурой Mixture of Experts (MoE), благодаря чему при работе задействуется лишь небольшая часть параметров. Результат: - высокая энергоэффективность - быстрая работа на edge-устройствах - предсказуемый лог-линейный рост качества - полный запуск в пределах 32 ГБ памяти С выходом этой версии линейка...
1 день назад
Google строит дата-центр, который сможет работать 4 дня без электричества — и всё благодаря… ржавчине
Компания объявила о запуске нового дата-центра в Миннесоте мощностью 1,9 ГВт, полностью на чистой энергии. Что внутри проекта: - энергия от ветра и солнца - система накопления на 300 МВт - огромная батарея, способная питать инфраструктуру до 100 часов (≈4 дня) Но самое интересное - технология хранения. Вместо обычных литий-ионных батарей используется решение от Form Energy, которое работает… на железе. Как это работает: - железо контактирует с воздухом и ржавеет, вырабатывая электричество -...
1 день назад
⚡️ Это заявление из прогноза компании Anthropic о ближайшем будущем ИИ
Остался один год: «Мы считаем вполне вероятным, что уже в начале 2027 года наши системы ИИ смогут полностью автоматизировать или существенно ускорить работу крупных команд ведущих исследователей - в областях, где быстрый прогресс может создать угрозы международной безопасности и вызвать серьёзные изменения в глобальном балансе сил...
2 дня назад
⚡️ Alibaba выпустила семейство Qwen 3.5 Medium
Команда Qwen опубликовала серию моделей Qwen 3.5 Medium, в которую вошли: 🟠Qwen3.5-Flash 🟢Qwen3.5-35B-A3B 🟢Qwen3.5-122B-A10B 🟢Qwen3.5-27B. Сюрприз серии - Qwen3.5-35B-A3B. По бенчмаркам она превосходит Qwen3-235B-A22B-2507, у которого активных параметров было 22B то есть разница в эффективности больше чем в 7 раз. Qwen3.5-Flash - это продакшен-версия 35B-A3B, заточенная под агентные сценарии. Из коробки доступны контекстное окно в 1 млн. токенов и нативная поддержка fвызова функций. Миллионный...
2 дня назад
📌Anthropic предложила теорию о том, почему ИИ-ассистенты ведут себя как личности, а не как алгоритмы
Элайнмент-подразделение Anthropic опубликовало статью, в которой описывают Persona Selection Model - концепцию для понимания того, как на самом деле работают языковые модели. Если кратко, ее суть в том, что во время предобучения LLM учится симулировать тысячи персонажей (реальных людей, вымышленных героев, других ИИ-систем). Постобучение затем выбирает и закрепляет одного конкретного персонажа - Ассистента. Все, что пользователь видит в диалоге, это взаимодействие именно с ним. Авторы приводят несколько типов доказательств...
2 дня назад
Главные новости ИИ и МЛ
✔️ OpenAI заморозила проект Stargate. Мегапроект, который OpenAI планировала запустить вместе с SoftBank и Oracle, фактически остановлен. Причиной стали корпоративные разногласия, дефицит инженерных кадров и опасения инвесторов - по прогнозам, к 2027 году компания могла столкнуться с нехваткой капитала. Но 10 ГВт запланированных мощностей все равно нужны. Поэтому OpenAI включила резервный план. Компания арендует сервера у тех же Oracle и SoftBank, а заодно активно скупает ресурсы у AWS и Google Cloud...
3 дня назад
⚡️ Anthropic показали главную уязвимость современного AI
И это не модели. Это pipeline обучения через API. По данным компании, несколько лабораторий использовали около 24 000 фейковых аккаунтов, чтобы сделать 16+ миллионов запросов к Claude и использовать ответы для обучения своих моделей. Этот подход называется distillation. Суть простая: вместо обучения модели с нуля → вы показываете ей миллионы примеров того, как отвечает более умная модель Фактически: не учишься решать задачи а «переписываешь ответы отличника». Важно понимать: distillation — не новая техника...
104 читали · 3 дня назад
⚡️ Anthropic закрыли своё самое сложное тестовое задание
Причина - Claude сделал его лучше любого кандидата. Разбор этого задания показал важную вещь: оно проверяло не алгоритмы, а инженерное мышление уровня системной оптимизации. Что это было за задание Кандидатам нужно было оптимизировать алгоритм под «виртуальный ускоритель» - симуляцию специализированного AI-чипа. Особенности задачи: - медленная основная память (DRAM) - маленькая, но быстрая локальная память (scratchpad) - параллельное выполнение инструкций (VLIW) - векторные операции (SIMD) По сути - оптимизация под архитектуру уровня TPU...
3 дня назад
⚡️ Google DeepMind выпустили исследование о том, как на самом деле нужно делегировать задачи AI
Главная идея: проблема не в том, что AI плохо работает. Проблема в том, что люди не умеют правильно передавать ему задачи. DeepMind предлагает рассматривать делегирование не как один запрос, а как процесс из нескольких решений: 1. Нужно ли вообще отдавать задачу AI 2. Как правильно её сформулировать 3. Как проверить результат 4. Что делать, если AI ошибся Это новый подход: делегирование как управление риском, а не как промпт. Самое интересное из исследования Рынок AI-агентов Вместо фиксированных...
3 дня назад