Найти в Дзене
Зачем делать сложное?
Человеческая цивилизация движется вперед благодаря странному и на первый взгляд необъяснимому разделению интересов. В то время как подавляющее большинство людей совершенно оправданно сосредоточено на базовом выживании, бытовых заботах и социальных связях, существует узкая прослойка тех, кто посвящает жизнь решению сложнейших абстрактных задач. Это противоречие часто кажется несправедливым или странным, но оно глубоко укоренено в самой природе нашего биологического и социального развития. Большинство людей не занимаются сложными вопросами не из-за лени или отсутствия способностей, а вследствие работы эволюционного механизма экономии энергии...
2 недели назад
Начало
"Наш век называется лукавым," — писал апостол Павел две тысячи лет назад, имея в виду эпоху духовного падения, когда человечество, облеченное в смертное тело, подвержено искушениям и отступлению от Истины. Но вот мы переживаем момент, когда это изречение приобретает новое, устрашающее измерение.Карамзин...
1 месяц назад
Наш век называется лукавым," — писал апостол Павел две тысячи лет назад, имея в виду эпоху духовного падения, когда человечество, облеченное в смертное тело, подвержено искушениям и отступлению от Истины. Но вот мы переживаем момент, когда это изречение приобретает новое, устрашающее измерение.Карамзин в конце XVIII века, потрясенный кровавым безумием Французской революции, восклицал: "Век просвещения, я не узнаю тебя; в крови и пламени, среди убийств и разрушений я не узнаю тебя!" Он увидел страшную истину: разум без веры, просвещение без нравственности, технический прогресс без духовного стержня ведут к варварству и террору.Теперь, в начале XXI века, мы стоим перед лицом новой реальности. Человек создает искусственный разум — не ради спасения, не ради служения, а ради власти, контроля и прибыли. Мы повторяем историческую ошибку: вкладываем все свои надежды в технологию, в машину, в холодный расчет — забывая, что без духовного основания, без понимания добра и зла, любого инструмента можно использовать для уничтожения.Архимандрит Софроний писал в 1961 году: "Наш век — век небывалых насилий над совестью человека." Но он не мог предвидеть, что это насилие станет еще более тотальным, когда машины будут знать о нас больше, чем мы о себе; когда алгоритмы будут решать, кому верить, кого осудить, кому дать жизнь, а кому — смерть.Искусственный интеллект — это не просто технология. Это зеркало, в котором отражается состояние нашей цивилизации. Если мы создаем ИИ, способный к манипуляции, к подавлению, к бездушному исчислению человеческой жизни — это потому, что мы сами уже готовы к этому. Если мы даем машине власть над совестью и выбором — это потому, что мы уже потеряли веру в собственную совесть. Сегодня мы повторяем этот путь, но в ускоренном темпе. Искусственный интеллект — это не внешняя угроза. Это воплощение нашего собственного лукавства, нашей готовности обменять свободу на удобство, совесть на алгоритм, смысл на данные.Эта книга исследует, как технология искусственного интеллекта отражает — и усиливает — духовный кризис нашей цивилизации. Она не предлагает утопических решений. Она задает вопросы, которые должен задать каждый: Что мы создаем? Зачем мы это создаем? Какой ценой?
1 месяц назад
Кредит OpenAI на 4 млрд долларов от J.P. Morgan выглядит странно, потому что компания молодая и убыточная, а ставка в 5 % годовых соответствует уровню прибыльных корпораций с высоким кредитным рейтингом. Логическое объяснение в том, что реальным гарантом кредита де‑факто является Microsoft, контролирующая крупную долю в OpenAI и не допустящая её банкротства. Фактически банки кредитуют Microsoft, а не саму OpenAI, поэтому сделка выглядит рациональной.
3 месяца назад
I'm in Vibe Code Hell
В статье Лейна Вагнера "I'm in Vibe Code Hell" от 10 октября 2025 года разбираются современные проблемы обучения программированию, сменившие прежний "tutorial hell" новым состоянием — "vibe code hell". Суть "Tutorial Hell" и его преодоление В 2019 году основной проблемой обучения было "tutorial hell" — студенты проходили много видеоуроков, но не могли создавать проекты самостоятельно. Симптомы: много смотрят, мало практикуют, знания поверхностны, возникают зависимость от подробных видео и туториалов. Решение тогда — глубже учиться, больше практиковаться, меньше зависеть от видео. Что такое "Vibe Code Hell"? Сегодня "tutorial hell" уступил место "vibe code hell"...
3 месяца назад
A small number of samples can poison LLMs of any size
В новом совместном исследовании Anthropic, UK AI Security Institute и Института имени Алана Тьюринга показано: даже крайне малое количество «отравленных» документов (примерно 250) способно встроить бэкдор-уязвимость в языковые модели любого размера — от 600M до 13B параметров. Разберём ключевые выводы, технические детали и последствия для индустрии.ВведениеНедавняя работа ставит под сомнение привычные допущения о масштабах и сложности атак на языковые модели: оказывается, для успешной атаки вовсе не обязательно контролировать значительную долю обучающих данных. Успех зависит не от процента, а от абсолютного числа отравленных документов — и это фундаментально меняет оценку рисков...
3 месяца назад
Краткий анализ Extract-0: специализированная модель для извлечения информации Extract-0 — это 7-миллиардная языковая модель для извлечения структурированной информации из документов, которая превосходит GPT-4.1, o3 и GPT-4.1-2025 при стоимости обучения всего $196. Ключевые достижения Модель достигает среднего вознаграждения 0.573 на 1000 тестовых задач, превосходя GPT-4.1 (0.457), o3 (0.464) и GPT-4.1-2025 (0.459) на 25%. При этом использует в 10-100 раз меньше параметров, демонстрируя преимущество специализации над универсальным масштабированием. Трёхкомпонентная методология Генерация синтетических данных (280,128 примеров) с последовательной обработкой чанков и сохранением памяти: Mi=Mi−1∪E(ci)M_i = M_{i-1} \cup E(c_i)Mi=Mi−1∪E(ci). Данные из arXiv, PubMed, Wikipedia и FDA с ограничением 532-1900 токенов на пример. LoRA-настройка модифицирует только 0.53% весов (40.4M из 7.66B параметров) с рангом r=16 и коэффициентом α=32. Адаптация: W′=W0+αrBAW' = W_0 + \frac{\alpha}{r}BAW′=W0+rαBA. GRPO с семантической функцией вознаграждения использует сходство эмбеддингов MiniLM для распознавания эквивалентных извлечений: R(y,y∗)=1∣F∣∑f∈FFieldSim(yf,yf∗)R(y, y^*) = \frac{1}{|\mathcal{F}|} \sum_{f \in \mathcal{F}} \text{FieldSim}(y_f, y_f^*)R(y,y∗)=∣F∣1∑f∈FFieldSim(yf,yf∗). Для списков применяется биpartitное сопоставление с порогом 0.35 Результаты обучения Производительность выросла от базовых 0.232 (валидность JSON 42.7%) до 0.507 после SFT (+118.5%) и 0.573 после GRPO (+147.0% от базы). Валидность JSON увеличилась до 89.0%. GRPO-обучение за 248 шагов улучшило вознаграждение с 0.488 до пикового 0.661 на шаге 190 (+35.4%), демонстрируя три фазы: исследование, эксплуатацию и конвергенцию. Практическая значимость Стоимость $196 (H100 GPU) делает разработку специализированных моделей доступной для организаций с ограниченными ресурсами. Модель особенно полезна для здравоохранения, финансов, юриспруденции и регуляторных секторов, обрабатывающих миллионы документов. Ограничения Модель обучена только на английских документах, требует адаптации для высокоспециализированных документов (патенты, медицинские отчеты) и обрабатывает документы независимо, без кросс-документных связей. Семантическая функция вознаграждения может упускать критические нюансы (например, "John Smith" vs "John P. Smith"). Выводы Исследование доказывает, что целенаправленная оптимизация 7B-модели для конкретной задачи может превзойти универсальные системы на 1-2 порядка больше при радикально меньших затратах. Код и данные открыты на HuggingFace и GitHub, обеспечивая воспроизводимость результатов.scikit-
3 месяца назад
Центральная идея Рене Жирара заключается в том, что человеческие желания не являются автономными — мы желаем не сами по себе, а подражаем желаниям других людей. Желание всегда опосредовано моделью или образцом, который одновременно становится и соперником для желающего. Подражание неизбежно приводит к конфликту и соперничеству, поскольку модель становится препятствием для достижения желаемого. Когда люди желают одного и того же объекта, возникает взаимное насилие. Поскольку каждый подражает каждому, насилие само становится объектом для подражания, что влечет эскалацию конфликта. Жирар утверждает, что в основе всех культурных институтов лежит единодушное насилие всех против одного — механизм козла отпущения. Это заместительное насилие позволяет обществу справиться с внутренними конфликтами, вызванными миметическим соперничеством. В архаических обществах существовали: - Запреты на подражание и связанные с ним соперничества - Ритуальные жертвоприношения как способ воспроизведения первоначального насилия и умиротворения общества В поздних работах Жирар утверждает, что христианство радикально меняет миметический механизм. Подражание Богу как абсолюту устраняет негативный мимесис, поскольку божественная любовь может быть разделена между всеми верующими без соперничества. Ключевой вывод: по Жирару, подражание является не просто психологической особенностью, а фундаментальным механизмом, определяющим всю человеческую культуру — от возникновения желаний до формирования социальных институтов и религиозных систем.
4 месяца назад
Методика Джереми Бермана для достижения рекордных результатов на ARC-AGI
Джереми Берман дважды устанавливал рекорды на бенчмарке ARC-AGI, представляющем собой один из самых сложных тестов для оценки общего интеллекта искусственных систем. Его последний результат в сентябре 2025 года показал 79.6% на ARC v1 при стоимости $8.42 за задачу (в 25 раз эффективнее, чем o3 от OpenAI) и 29.4% на ARC v2 (новый рекорд). Особенно примечательно, что он заменил генерацию Python-функций на естественные языковые инструкции, что стало ключевым прорывом. ARC-AGI (Abstraction and Reasoning Corpus for Artificial General Intelligence) представляет собой визуальный тест интеллекта, разработанный...
4 месяца назад
Don’t Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks
Статья представляет альтернативный подход к использованию больших языковых моделей (LLM) для задач, связанных с знаниями. Авторы предлагают метод Cache-Augmented Generation (CAG), который заменяет традиционный Retrieval-Augmented Generation (RAG) в сценариях, где база знаний ограничена и управляемая по размеру. Вместо динамического поиска информации во время inference (вывод), CAG предварительно загружает все релевантные документы в контекст модели и кэширует параметры, что устраняет задержки и ошибки поиска...
4 месяца назад
Сравнение RAG подходов для образовательных LLM
Проблематика и контекст исследования Исследователи выявили критические проблемы использования больших языковых моделей в классах: Проблема галлюцинаций и устаревшей информации: Проблема несоответствия образовательным целям: Принцип работы: Технические характеристики: Принцип работы: Два режима работы: GraphRAG Local: GraphRAG Global: Ресурсные затраты GraphRAG: Общие характеристики: Детальная композиция по предметам: ПредметИсточникиСловаSpecific QSectional QThematic QЛитератураMoby-Dick, Little Women397,1486798040История6 исторических текстов384,1367137738Компьютерные науки7 технических монографий402,0556647235НаукаУчебник...
4 месяца назад
Пост из блога Адама Савицкого (Adam Sawicki) — программиста, специализирующегося на графическом программировании, разработке игр и работе с низкоуровневыми графическими API. Рассмотрю подробно основные материалы и проекты, представленные на сайте. Основные проекты и статьи D3D12info - Инструмент анализа GPU возможностей Это open-source проект для анализа возможностей видеокарт в DirectX 12. Включает три компонента: D3D12info — консольное приложение, выводящее все возможности DX12 в текстовом или JSON формате D3D12infoGUI — графический интерфейс с веб-отчетами D3D12infoDB — онлайн база данных с возможностями разных GPU Проект решает проблему отсутствия аналога vulkaninfo для DirectX 12. Особенно полезна Feature Table, показывающая поддержку функций по поколениям GPU от AMD, Nvidia, Intel и Qualcomm. Технические проблемы и решения Проблема с Godot 4.3: Описано решение зависаний движка на ноутбуке ASUS TUF Gaming с двумя AMD GPU. Решение — принудительное использование интегрированной графики через параметр --gpu-index 1. DirectX 12 Agility SDK: Детальный разбор обновлений SDK версии 1.716.0-preview, включая новые функции и возможности. FP8 форматы данных для машинного обучения Наиболее подробная статья посвящена 8-битным числам с плавающей точкой (FP8), используемым в AI/ML для экономии памяти и ускорения вычислений. Описаны четыре основных формата: FLOAT8E4M3FN 1 бит знака + 4 бита экспоненты + 3 бита мантиссы Поддерживает ±0, ±NaN, но без бесконечностей Диапазон значений: от ±0.001953 до ±448 FLOAT8E4M3FNUZ Аналогичная структура, но только один ноль Увеличенное смещение экспоненты для меньших значений Максимальное значение: ±240 FLOAT8E5M2 1 бит знака + 5 битов экспоненты + 2 бита мантиссы Полное соответствие стандарту IEEE (с ±∞, NaN) Больший диапазон: от ±0.0000153 до ±57344 FLOAT8E5M2FNUZ Модификация предыдущего формата без бесконечностей Один ноль и специальное значение NaN Особенности форматов FP8 Применение в ML: E4M3 предпочтителен для весов и инференса (прямой проход) E5M2 (bf8) — для градиентов и обучения (обратный проход) Производительность близка к fp16/bf16 при вдвое меньшем размере Визуализация: Автор создал уникальные таблицы 16×16, показывающие все 256 возможных значений каждого формата с цветовой кодировкой для разных типов чисел.
4 месяца назад