Найти в Дзене
⚡️ HF Learn: 11 бесплатных курсов по ИИ от HuggingFace
В преддверии новогодних праздников платформа подготовила набор обучающих материалов по основным направлениям ИИ: 🟢LLM Course - познакомит с большими языковыми моделями и обработкой естественного языка с использованием библиотек экосистемы HF: Transformers, Datasets, Tokenizers и Accelerate. 🟢Robotics Course - проведет вас от классической робототехники к современным подходам, основанным на ML. 🟢Model Context Protocol Course - курс, созданный в партнерстве с Anthropic , научит пониманию, использованию и созданию приложений с помощью MCP...
2 дня назад
🚀 Вышел QwenLong-L1.5 - модель для long-context reasoning, которая на длинных контекстах конкурирует с GPT-5 и Gemini-2
5-Pro. Коротко о модели - 30B параметров, из них 3B активных - Заточена под рассуждение на очень длинных контекстах - Полностью открыты веса, код обучения и рецепты данных Ключевые показатели: - +31.7 балла на OpenAI MRCR при контексте 128K - SOTA среди всех моделей - На уровне Gemini-2.5-Pro на 6 крупных long-QA бенчмарках - +9.69 на CorpusQA - +6.16 на LongBench-V2 Что интересного. 1. Синтетические данные в масштабе 14.1K длинных reasoning-сэмплов из 9.2B токенов без ручной разметки. Средняя длина - 34K токенов, максимум - 119K...
2 дня назад
Главные новости ИИ и МЛ за сегодня
✔️ OpenAI подняла маржинальность вычислений до 70% на фоне убытков от R&D. Согласно внутренним финансовым отчетам, к октябрю 2025 года «вычислительная маржа» компании достигла 70%. Этот показатель, отражающий долю выручки, остающуюся после покрытия прямых затрат на работу моделей для пользователей, удвоился с начала 2024 года - тогда он составлял лишь 35%. Такая динамика указывает на успешную оптимизацию инфраструктуры инференса, что делает платных клиентов значительно рентабельнее. Несмотря на техническую оптимизацию, компания остается глубоко убыточной...
3 дня назад
🌟 Z-Image Turbo взяла 1 место на Artificial Analysis Image Arena
Детище Alibaba, которое было выпущено отдельно от команд Wan и Qwen и стоит 5 долларов за 1000 изображений на Alibaba Cloud добралась до 1 места в рейтинге Artificial Analysis Image Arena. Это модель с 6 млрд. параметров, которая может работать на потребительском оборудовании с объемом памяти всего 16 ГБ в полной точночти, а квантованные варианты запускаются на 8 ГБ...
3 дня назад
🧠 Google покупает Intersect за $4.75 млрд - ради электроэнергии для ИИ
Alphabet объявила о покупке Intersect за $4.75 млрд наличными плюс принятие долга. Цель сделки - обеспечить энергией быстро растущую сеть AI дата-центров Google. Это не про «зеленую повестку». Это про главный bottleneck ИИ - электричество. Что именно покупает Google Intersect - это не просто энергокомпания. Ее ключевой актив - development platform, то есть способность быстро запускать новые энергетические мощности: - команда девелоперов и инженеров - разрешения, земля, работа с регуляторами -...
3 дня назад
🖼️✨ Qwen-Image-Layered: Модель для многослойной обработки изображений
Qwen-Image-Layered позволяет разбирать изображения на несколько RGBA слоев, обеспечивая возможность редактирования каждого слоя независимо. Это открывает новые горизонты для редактирования, позволяя выполнять операции с высоким качеством, такие как изменение размера и перекраска, без влияния на другие элементы. 🚀Основные моменты: - Декомпозиция изображений на независимые слои...
4 дня назад
⚡️ Китайские учёные представили сверхбыстрый аналоговый чип до 1000× быстрее топовых цифровых процессоров
Чип решает сложные математические задачи для ИИ и научных вычислений и в тестах обходит даже GPU NVIDIA. Ключевая идея не ускорять цифру, а уйти от неё: аналоговые вычисления позволяют считать напрямую, без дискретных шагов, что даёт резкий прирост скорости и энергоэффективности. Это может изменить правила игры: - ускорение обучения и инференса...
4 дня назад
OpenAI неоднократно переходила в режим «Code Red», сообщает Bloomberg
«Code Red» - это внутренний режим, когда команды временно бросают второстепенные задачи и фокусируются на одном приоритете. По словам главы исследований OpenAI Марка Чена, компания уже не раз использовала этот подход. Причина простая: большие команды легко распыляются между агентами, рекламой и исследованиями, из-за чего основной продукт - чат, теряет скорость и надёжность. Последний «Code Red» последовал сразу после релиза Google Gemini 3. Ответ OpenAI: - возврат фокуса на core-stack - снижение...
4 дня назад
🔥 2025 - год, когда LLM действительно изменились. Коротко и по делу, по мотивам поста Андрея Карпты 2025 оказался неожиданно сильным годом для LLM. Не просто улучшения метрик, а реальные сдвиги в том, как модели обучаются, как ими пользуются и как вообще стоит думать об их «интеллекте». Главное за 2025 по мнению Карпты: 1. RLVR — Reinforcement Learning from Verifiable Rewards До 2025 стандартный стек выглядел так: pretraining → SFT → RLHF. В 2025 к этому стеку добавился новый, ключевой этап- RLVR. Вместо субъективной человеческой оценки модель обучают на автоматически проверяемых наградах: задачи по математике, коду, логике. В результате LLM сама находит стратегии рассуждения - дробит задачи, проверяет гипотезы, возвращается назад. Важно не «что мы показали модели», а то, что она сама нашла рабочие способы думать. Этот этап оказался невероятно эффективным по соотношению capability к стоимости, из-за чего значительная часть вычислений ушла не в pretraining, а в длинные RL-прогоны. Побочный эффект — появился новый регулятор мощности: test-time compute. Больше «времени на размышление» — выше качество. o1 показал идею, o3 в начале 2025 сделал перелом — разницу стало чувствовать интуитивно. 2. «Призраки, а не животные» и рваный интеллект В 2025 индустрия наконец осознала форму LLM-интеллекта. Мы не «растим животных». Мы «призываем призраков». LLM оптимизированы не под выживание и социальные группы, а под имитацию текста, получение наград в формальных задачах и апвоты. Поэтому интеллект получается рваным: - гениальны в одном - наивны и уязвимы в другом RLVR усиливает этот эффект - модели становятся сверхсильными в верифицируемых доменах и странно слабыми вне их. Отсюда и потеря доверия к бенчмаркам: они почти всегда верифицируемы, а значит легко «обрастают jagged-улучшениями». Обучение на тесте стало искусством. Можно побить все бенчмарки и всё ещё быть далеко от AGI. 3. Cursor и новый слой LLM-приложений Cursor показал, что появился новый класс LLM-продуктов - «Cursor для X». Это не просто интерфейс к модели, а слой, который: - делает context engineering - оркестрирует множество LLM-вызовов в DAG - балансирует стоимость и качество - дает специализированный UI - вводит «ползунок автономности» Вероятный сценарий: LLM-лабы делают «универсального студента», а приложения превращают их в специалистов — добавляя данные, инструменты, сенсоры и обратную связь. 4. Claude Code - AI, который живет на твоем компьютере Claude Code стал первым убедительным агентом, который работает локально, в твоем окружении, с твоими файлами и контекстом. Это важный сдвиг. Не облачные контейнеры и абстрактные агенты, а «дух», который живет рядом с разработчиком. В мире рваных возможностей это оказалось гораздо полезнее, чем агентные своры в облаке. Форм-фактор CLI сделал этот сдвиг особенно наглядным: AI - это уже не сайт, а постоянный спутник. 5. Vibe coding 2025 - год, когда стало возможно писать сложные программы, почти забыв, что код вообще существует. Vibe coding демократизирует программирование: - обычные люди могут создавать софт - профессионалы пишут больше, быстрее и смелее - код стал дешевым, одноразовым, экспериментальным Можно написать программу ради одной проверки, одного бага, одной идеи - и выкинуть. Это изменит и софт, и профессии. 6. Nano banana и будущее интерфейсов Чат - это терминал 80-х. Удобно для машины, плохо для человека. Люди предпочитают визуальное мышление: схемы, изображения, анимации, интерфейсы. LLM должны общаться с нами в этих форматах. Gemini Nano banana - первый намек на настоящий LLM-GUI, где текст, изображения и знания слиты в одной модели. Это не просто генерация картинок — это новый пользовательский слой для интеллекта. 2025 показал: LLM - это новый тип интеллекта. Он одновременно умнее и глупее, чем ожидали. Он невероятно полезен, но мы реализовали, возможно, даже не 10% его потенциала. Прогресс будет быстрым. Работы впереди — море. Поле идей - открыто. https://x.com/karpathy/status/2002118205729562949
6 дней назад
⚡️ Shannon - полностью автономный AI-хакер для поиска реальных уязвимостей в веб-приложениях
Shannon - это автономная система для offensive security, которая сама ищет, воспроизводит и документирует реальные эксплойты в веб-приложениях без подсказок и ручного вмешательства. Модель показала 96.15% успешности на XBOW Benchmark (hint-free, source-aware), что выводит ее на уровень практического pentest, а не просто статического анализа. Что умеет Shannon - Полностью автономная работа без ручного управления - Поиск реальных эксплойтов, а не теоретических уязвимостей - Генерация pentester-grade...
1 неделю назад
T5Gemma 2 - новое поколение энкодер-декодерных моделей от Google
Google представила T5Gemma 2 - энкодер-декодерную архитектуру, построенную на базе идей и ряда улучшений Gemma 3. Это не просто апдейт, а полноценный шаг вперед для задач генерации, перевода, суммаризации и мультимодального понимания. T5Gemma 2 объединяет сильные стороны классического подхода T5 (encoder-decoder) с архитектурными улучшениями Gemma нового поколения, делая модель более эффективной, масштабируемой и универсальной. Основные особенности - Энкодер-декодерная архитектура нового поколения...
1 неделю назад
🔍 Mistral представила OCR 3 - новую версию своей AI-системы распознавания документов
Ключевое: - Существенный рост качества по сравнению с OCR 2, особенно на формах, таблицах и сложных PDF - Уверенно работает со сканами, рукописным текстом и нестандартной версткой - Возвращает структурированный результат, а не просто сырой текст - Подходит для автоматизации Document AI и downstream-аналитики - Доступен через API и готов к продакшен-использованию Главное - На 74% лучше Mistral OCR 2 при работе с формами, сканированными документами, сложными таблицами и рукописным текстом...
1 неделю назад